Killeralgorithmen: Wie Israel im Gaza-Krieg eine AI-Tötungsmaschine einsetzt Von David Goeßmann

Dank an David Goeßmann, für die Genehmigung der Veröffentlichung seines neuen Telepolis Artikel auf der Hochblauen Seite. Evelyn Hecht-Galinski

Killeralgorithmen: Wie Israel im Gaza-Krieg eine AI-Tötungsmaschine einsetzt

Explosiver Bericht: Über 30.000 Palästinenser auf Tötungsliste. KI nimmt Verdächtige mit Familie zu Hause ins Visier. Ein Kill-Programm außer Kontrolle.

Killeralgorithmen: Wie Israel im Gaza-Krieg eine AI-Tötungsmaschine einsetzt

Von

Palästinenser suchen nach einem israelischen Luftangriff im Flüchtlingslager Rafah im südlichen Gazastreifen am 12. Oktober 2023 nach Überlebenden. Bild: Anas Mohammad / Shutterstock.com

Explosiver Bericht: Über 30.000 Palästinenser auf Tötungsliste. KI nimmt Verdächtige mit Familie zu Hause ins Visier. Ein Kill-Programm außer Kontrolle.

Das israelische Militär verwendet eine von künstlicher Intelligenz gesteuerte „Tötungsliste“ für seinen Krieg gegen die Hamas, auf der bis zu 37.000 Palästinenser im Gazastreifen stehen.

Die Tötungen würden dabei mit so gut wie keiner menschlichen Kontrolle ausgeführt. Das ist das Ergebnis einer explosiven investigativen Recherche [1] des israelischen Magazins +972 und auf dem auf Hebräisch erscheinenden Medium Local Call.

Lavender und „Where’s Daddy?“

Die dabei eingesetzten Programme heißen Lavender und „Where’s Daddy?“. Lavender erstellt die Tötungslisten. Die KI-Software stützt sich den Berichten zufolge auf Überwachungsnetze und weist jedem Gaza-Bewohner eine Punktzahl von 1 bis 100 zu, mit der die Wahrscheinlichkeit eingeschätzt wird, dass es sich um einen Hamas-Kämpfer handelt.

Die Soldaten geben diese Informationen dann in die Software „Where’s Daddy“ ein, die die Ziele per GPS identifiziert und ausmacht. Das KI-Programm wurde dabei so konzipiert, dass dem israelischen Militär ermöglicht wird, Einzelpersonen ins Visier zu nehmen, wenn sie nachts zu Hause bei ihren Familien sind. Die KI warnt die Soldaten, wenn eine Zielperson dort eintrifft.

Durch dieses automatisierte, maschinenbasierte Verfahren werde die Anzahl der zivilen Opfer im Krieg stark erhöht, heißt es in der Untersuchung. Die UN-Organisation Ocha meldet [2] auf Basis des Gesundheitsministeriums vor Ort, dass bisher über 100.000 Palästinenser (bei einer Gaza-Gesamtpopulation von gut zwei Millionen Menschen) Opfer von israelischen Angriffen geworden sind.

Fehlerquote von zehn Prozent

Dabei wurden bislang 32.975 Menschen getötet, darunter mindestens 13.000 Kinder und 9.000 Frauen. Zudem gibt es 75.577 Verletzte.

Die hohe zivile Opferzahl, die insbesondere auf die spezifische Art der AI-Kriegsführung zurückzuführen ist, hat auch damit zu tun, dass in das System gewissermaßen ein „Mega-Kollateralschaden“ künstlich einprogrammiert ist.

Die AI Lavender soll zum Beispiel eine Fehlerquote von zehn Prozent enthalten. Das heißt, von den 37.000 Tötungszielen sind 3.700 falsch. Dabei handelt es sich also um Fälle, in dem die Software Menschen als militante Hamas-Anhänger deklariert, wenn das nicht zutrifft.

Die Erkenntnisse der Medienberichte stützen sich auf Aussagen von Vertretern innerhalb der israelischen Armee (IDF).

Tötungsschaden von mehr als 100 Zivilisten autorisiert

Laut den IDF-Quellen [3] soll die israelische Armee in den ersten Wochen des Gaza-Kriegs Entscheidungen getroffen haben, wonach erlaubt war, dass „für jeden von Lavender markierten Hamas-Kämpfer bis zu 15 oder 20 Zivilisten getötet werden durften“.

Wenn es sich um Kommandanten oder einen höherrangige Hamas-Beamten handelte, durfte noch mehr „Kollateralschaden“ in Kauf genommen werden. So wurde bei der Ermordung eines einzigen Befehlshabers in mehreren Fällen, so ein IDF-Vertreter gegenüber +972, die Tötung von mehr als 100 Zivilisten autorisiert.

Der US-Historiker und Nahost-Experte Juan Cole fasst den gesamten „Kollateralschaden“ zahlenmäßig so zusammen [4]:

Das wären insgesamt 77.700 Nichtkombattanten, die von einer ungenauen Maschine willkürlich eliminiert würden.

Soldaten können AI-Entscheidungen nur „durchwinken“

Die hohe zivile Opferzahl hängt schließlich auch damit zusammen, dass das israelische Militär laxen Einsatzregeln folgt und menschliche Kontrolle fehlt. Laut einer IDF-Quelle, die in der Recherche zitiert wird, hätten die Soldaten nur die Entscheidungen der Maschine „durchgewinkt“.

Man habe normalerweise lediglich etwa „20 Sekunden“ für jedes menschliche Ziel, bevor ein Bombenangriff genehmigt werde. Dabei werde nur sichergestellt, dass das von Lavender gewählte Ziel männlich ist.

Juan Cole wendet gegen die AI-Kriegsführung – die er für „beispiellos brutal“ hält – zudem ein, dass die Tötungsliste an sich schon unrechtmäßig sei. Von den 37.000 gelisteten Personen könne nur eine kleine Minderheit die Angriffe vom 7. Oktober ausgeführt haben.

IDF hält Bericht für übertrieben

Die meisten auch innerhalb Hamas hätten außerdem vorher nichts von dem Übergriff gewusst. „Es war eine kleine, abgeschlossene Clique, die das geplant und durchgeführt hat“, so Cole. Nicht-militante Hamas-Vertreter und auch Polizisten würden nun von Israel aber in der Gaza-AI-Kriegsführung zu rechtmäßigen Zielen erklärt.

Das Magazin +972 hatte schon früher über den Einsatz von Kriegs-AI in Gaza berichtet [5]. Die israelische Seite und die IDF hatten zudem immer wieder Aussagen getätigt, die den AI-Einsatz im Gaza-Krieg nahelegen.

In Reaktion auf den jüngsten Bericht erklärte die IDF [6], dass die Rolle und der Einfluss von AI im Gaza-Krieg darin übertrieben worden sei.

KI-Kriege: Humanitäres Völkerrecht und Kriegsverbrechen

Professor Toby Walsh, ein KI-Experte an der University of New South Wales in Sydney, stellt fest [7], dass Rechtsexperten wahrscheinlich argumentieren werden, dass der Einsatz von KI gegen das humanitäre Völkerrecht verstößt.

Ben Saul, der Sonderberichterstatter der Vereinten Nationen für Menschenrechte und Terrorismusbekämpfung, betont zugleich [8], wenn sich die Angaben in dem Bericht bewahrheiten sollten, „würden viele israelische Angriffe im Gazastreifen den Tatbestand eines Kriegsverbrechens erfüllen, nämlich unverhältnismäßige Angriffe auszuführen“.

„Das Weltuntergangsszenario der Killeralgorithmen spielt sich bereits in Gaza ab“, meint Brianna Rosen [9], leitende Forscherin bei Just Security und an der Universität Oxford, die zuvor während der Obama-Regierung im Nationalen Sicherheitsrat der Vereinigten Staaten gearbeitet hat.

Die neue Targeting-Technik könnte bald schon in anderen Konflikten und Kriegen ihren Einsatz finden. Israel scheint bereits zu versuchen [10], die KI-Kriegstechnologie an interessierte andere Staaten zu verkaufen.


URL dieses Artikels:
https://www.heise.de/-9676712

Links in diesem Artikel:
[1] https://www.972mag.com/lavender-ai-israeli-army-gaza/
[2] https://www.ochaopt.org/content/hostilities-gaza-strip-and-israel-reported-impact-day-180
[3] https://www.972mag.com/lavender-ai-israeli-army-gaza/
[4] https://www.commondreams.org/opinion/israel-genocidal-artificial-intelligence
[5] https://www.972mag.com/mass-assassination-factory-israel-calculated-bombing-gaza/
[6] https://responsiblestatecraft.org/israel-ai-targeting/
[7] https://www.aljazeera.com/news/2024/4/4/ai-assisted-genocide-israel-reportedly-used-database-for-gaza-kill-lists
[8] https://twitter.com/profbensaul?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1775672424463536468%7Ctwgr%5E28172167f47ed38af74f5fce8915ec8d38b6d6a5%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fwww.aljazeera.com%2Fnews%2F2024%2F4%2F4%2Fai-assisted-genocide-israel-reportedly-used-database-for-gaza-kill-lists
[9] https://www.justsecurity.org/90676/unhuman-killings-ai-and-civilian-harm-in-gaza/
[10] https://www.aljazeera.com/news/2024/4/4/ai-assisted-genocide-israel-reportedly-used-database-for-gaza-kill-lists

Hinterlasse jetzt einen Kommentar

Kommentar hinterlassen

Entdecke mehr von Sicht vom Hochblauen

Jetzt abonnieren, um weiterzulesen und auf das gesamte Archiv zuzugreifen.

Weiterlesen