Es ist nicht möglich, über dieses Thema zu debattieren, ohne mich vorher klar zu positionieren. Im folgenden Text ergreife ich keine Partei. Ich kenne keine selektive Empathie. Mein Mitgefühl gilt allen Menschen, die unter Gewalt leiden, und ich verachte alle Menschen, die anderen Gewalt antun. Mit dieser Klarstellung gehen wir in medias res.

KI kann so großartig sein. Sie kann uns helfen, die Delphinsprache zu entschlüsseln, Bademeister*innen dabei unterstützen, Ertrinkende rechtzeitig zu identifizieren oder die Liebe fürs Leben zu finden. Sie kann aber auch kreativen Menschen die Stimme nehmen, ganze Menschengruppen diskriminieren und ja – KI kann auch töten.

Die erste computergestützte Ermordung von Menschen fand, was nur wenige wissen, während des Holocaust statt. Damals unterstützte IBM das Nazi-Regime mit den damaligen Lochkarten-Hollerith-Maschinen, die bei der Organisation von Zwangsarbeit und der Shoah unterstützend eingesetzt wurden. Ich empfehle an dieser Stelle das erhellende Buch von Edwin Black ‘IBM and the Holocaust: The Strategic Alliance between Nazi Germany and America’s Most Powerful Corporation’.

Diese erste Computergeneration wurde unter anderem vom Rassenamt der SS genutzt. Der SPIEGEL schreibt in seiner Recherche: „Für die Wannseekonferenz, auf der 1942 Pläne zur Organisation der Judenvernichtung festgelegt wurden, ließ sich NS-Sicherheitschef Reinhard Heydrich vorsorglich gleich von zwei Hollerith-Experten beraten: Richard Korherr, “Inspekteur für Statistik beim Reichsführer SS”, und Roderich Plate, Kontaktmann des Statistischen Reichsamtes zum “Judenreferat” des Reichssicherheitshauptamtes.“ (Quelle: https://www.spiegel.de/wirtschaft/ibm-der-programmierte-massenmord-a-117132.html?sara_ref=re-so-wa-sh)

Wir schreiben das Jahr 2024, das Erwachen der KI als kulturverändernde Technologie. Der Guardian hat in seiner Recherche mit dem Titel “The machine did it coldly: Israel used AI to identify 37,000 Hamas targets’ die Funktion von KI-Systemen aufgedeckt, die zur Identifizierung von Bombenzielen in Gaza eingesetzt wurden. (Quelle: https://www.theguardian.com/world/2024/apr/03/israel-gaza-ai-database-hamas-airstrikes?CMP=Share_AndroidApp_Other)

Israelische Geheimdienstquellen sprechen nicht nur über den Einsatz des KI-Systems namens Lavender, sondern erwähnen auch, dass unter der Einbeziehung von KI israelische Militärs die Tötung einer großen Zahl palästinensischer Zivilisten zuließen, insbesondere in den ersten Wochen und Monaten des Konflikts.

Ein Lavender-Nutzer hebt die Zeitersparnis bei der Zielfindung hervor: “Ich würde in dieser Phase 20 Sekunden für jedes Ziel investieren und jeden Tag Dutzende von ihnen bearbeiten. Als Mensch hatte ich keinerlei Mehrwert, abgesehen davon, dass ich ein Gütesiegel war. Das sparte eine Menge Zeit.”  Vier der Quellen des Guardian gaben an, dass Lavender zu einem frühen Zeitpunkt des Krieges bis zu 37.000 palästinensische Männer auflistete, die von dem KI-System mit der Hamas oder dem PIJ in Verbindung gebracht worden waren.

Zwei Quellen berichteten, dass sie in den ersten Wochen des Krieges bei Luftangriffen auf Kämpfer niedriger Ränge 15 oder 20 Zivilisten töteten. Die Angriffe auf solche Ziele wurden in der Regel mit ungelenkter Munition, so genannten “dumb bombs”, durchgeführt, die ganze Häuser zerstörten und alle Bewohner töteten.

Die KI soll im späteren Verlauf Munition sparen, d.h. wer in der sozialen Netzwerk-Analyse der KI als niedrigrangig eingestuft wird, für den lohnt sich keine Bombe. Eine Quelle rechtfertigt jedoch den willkürlichen Einsatz. “Wenn es sich um einen jüngeren Kämpfer handelt, will man keine Arbeitskräfte und keine Zeit investieren (…) In Kriegszeiten reicht die Zeit nicht aus, um jede Zielperson sorgfältig zu belasten”. Zivile Opfer werden daher von vornherein hingenommen. Und weiter “Wir waren nicht daran interessiert, [Hamas]-Aktivisten nur dann zu töten, wenn sie sich in einem militärischen Gebäude aufhielten oder einer militärischen Aktivität nachgingen”, sagte einer. “Es ist viel einfacher, das Haus einer Familie zu bombardieren. Das System ist so aufgebaut, dass es in solchen Situationen nach ihnen sucht.”

Über den Kollateralschaden bestimmen Maschinen, nicht Menschen.

Die israelischen Streitkräfte hielten es für akzeptabel, bis zu 100 Zivilisten unter hochrangigen Hamas-Mitgliedern zu töten, während die Angaben für niedrigere Ränge zwischen 5 und 20 schwankten. Ein Völkerrechtsexperte des US-Außenministeriums berichtet dem Guardian, er habe “noch nie davon gehört, dass ein Verhältnis von 1:15 als akzeptabel angesehen worden sei, insbesondere nicht bei Kämpfern niedrigerer Ränge. Es gibt einen großen Spielraum, aber das erscheint mir extrem”.

So sieht Krieg im Zeitalter der KI aus. Die philosophischen Fragen lasse ich bewusst offen. Zusammengefasst geht es darum, soziale Netzwerke möglichst effizient mit Gewalt auszuschalten, wobei Kollateralschäden in einer Kosten-Nutzen-Analyse von vornherein einkalkuliert werden.

In autoritären Regimen wird KI massiv eingesetzt. In den Hacker News habe ich einen logischen Hinweis darauf gefunden, wie die computergestützte Kontrolle einer Bevölkerung gelingt. Sie folgt der Sequenz VerdächtigungVerdachtsbestätigung – Überwachung – Einschränkung der Rechte – Verhaftung und Ermordung.

Die dunkle Seite der KI wird uns noch lange begleiten. Es ist kein schönes Thema für einen der wenigen sonnigen Vormittage hier in Oldenburg. Aber ich denke, dass wir als Zivilgesellschaft die Pflicht haben, offen über die Entmenschlichung durch KI im Krieg und in autoritären Regimen zu sprechen.


Leave a comment