Lavender, Where’s Daddy und The Gospel: Israel setzt im Krieg gegen Gaza auf diverse KI-Systeme
Es gab Vermutungen über den Einsatz von künstlicher Intelligenz im Gaza-Krieg. Sechs israelische Geheimdienstoffiziere bestätigten nun den Einsatz einer KI-Datenbank mit dem Codenamen „Lavender“ im Gazastreifen – sie wollen selbst mit dem Tool zu tun gehabt haben. Insgesamt sollen durch die Unterstützung der KI 37.000 Hamas-Ziele identifiziert worden sein. Die israelische Armee verneint den Einsatz von KI in der Kriegsführung.
Menschliches Personal als „Stempel“ für die Entscheidungen der Maschine
Wie unter anderem „+972” und „The Guardian” berichteten, hat die israelische Armee ein KI- Programm mit dem Namen Lavender entwickelt. Dieses soll bereits während des aktuellen Krieges gegen den Gazastreifen eingesetzt worden sein und zur Generierung von Tötungszielen gedient haben – vor allem zu Beginn des Krieges. Darüber hinaus heißt es, dass die israelische Armee Zehntausende von Menschen im Gazastreifen als verdächtig eingestuft und mithilfe eines KI-Zielsystems Palästinenser bombardiert hat. Menschliches Personal, so wird berichtet, diente oft nur als „Stempel“ für die Entscheidungen der Maschine. Den Quellen nach wurden die Entscheidungen der KI nicht gründlich geprüft, Genehmigungen wurden oft pauschal erteilt, sobald das Opfer männlich war. Man habe sich normalerweise nur etwa „20 Sekunden“ mit jedem Ziel befasst. Auch soll bekannt gewesen sein, dass das System in ungefähr zehn Prozent der Fälle „Fehler” begeht und damit auch Zielpersonen markiert, die in keiner Verbindung zu militanten Gruppen standen.
„The Human-Machine Team“: Buch über Synergie zwischen menschlicher und künstlicher Intelligenz
Das im Jahr 2021 veröffentlichte Buch „The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World“ wurde nachweislich vom derzeitigen Kommandeur der israelischen Eliteeinheit 8200 geschrieben. Als Autor agiert er unter dem Pseudonym „Brigadier General Y.S.” In seinem Buch plädiert er dafür, eine Maschine zu entwickeln, die in kurzer Zeit Tausende militärische Angriffsziele ermitteln kann, indem sie riesige Datenmengen verarbeitet. In den Augen von Brigadier General Y.S. würde eine derartige Technologie den „menschlichen Engpass sowohl bei der Lokalisierung der neuen Ziele als auch bei der Entscheidungsfindung zur Genehmigung der Ziele“ beseitigen, schreibt er.
Es wurden bewusst Häuser bombardiert
Formal ist das Lavender-System so konzipiert, dass es alle Verdachtsfälle kennzeichnet. Dabei war zweitrangig, ob es sich um Hamas-Aktivisten handelte oder nicht, verriet ein Geheimdienst-Agent gegenüber +972 und dem israelische unabhängige Nachrichtenportal Local Call. „Im Gegenteil, die Israel Defense Forces (IDF) haben sie ohne zu zögern auch Häuser bombardiert, als erste Option. Es ist viel einfacher, das Haus einer Familie zu bombardieren. Das System ist darauf ausgelegt, in solchen Situationen nach ihnen zu suchen”, sagte er.
Diverse KI-Systeme im Krieg für verschiedene Zielsetzungen
Ein weiteres automatisiertes System mit dem Namen „Where’s Daddy?” soll man ebenso gezielt eingesetzt haben, um Zielpersonen aufzuspüren und diese mit Bomben abzuschießen, sobald sie in ihre Wohnhäuser betreten haben. Das KI-System „The Gospel“ wiederum habe Gebäude und Strukturen markiert, von denen aus Militante agierten – im Unterschied zu Lavender, das konkret nach Menschen suchte, die es auf die Tötungsliste setzen konnte. Erstmalig soll die israelische Armee in den ersten Wochen beschlossen haben, dass für jeden von Lavender markierten Hamas-Aktivisten bis zu 15 bis 20 Zivilist:innen getötet werden dürfen. Sollte es sich bei dem Ziel um einen hochrangigen Hamas-Funktionär gehandelt haben, etwa einem Bataillon- oder Brigadekommandeur, wollte man sogar die Tötung von mehr als 100 Zivilist:innen als Kollateralschaden in Kauf nehmen.
Israel Defense Forces streiten Einsatz von KI ab
Die IDF meldeten sich mit einem Statement in Reaktion auf die Berichterstattung im Guardian zu Wort und streiten ab, KI zu nutzen, um terroristische Akteure ausfindig zu machen oder anzugreifen. „Entgegen anders lautenden Behauptungen verwenden die IDF kein System der künstlichen Intelligenz, das terroristische Akteure identifiziert oder versucht vorherzusagen, ob eine Person ein Terrorist ist.” Weiters heißt es: „Bei dem System (…) handelt es sich nicht um ein System, sondern lediglich um eine Datenbank, deren Zweck es ist, nachrichtendienstliche Quellen miteinander zu vergleichen, um aktuelle Informationen über die militärischen Akteure terroristischer Organisationen zu erhalten.“