
Gaza: Testfeld für israelische KI-Tools, ethische Bedenken wachsen
- Von Al Mayadeen English
- Quelle: The New York Times
- 25.April 2025
In den letzten 18 Monaten hat die israelische Besatzungsmacht KI in Gesichtserkennung, Zielauswahl und Arabisch-Sprachanalyse integriert.
Ende 2023 setzte „Israel“ ein neu verbessertes KI-gestütztes Audio-Tool ein, um den Hamas-Kommandeur Ibrahim Biari zu lokalisieren und zu ermorden, nachdem traditionelle Geheimdienstmethoden versagt hatten – eine Operation, bei der auch über 125 Zivilisten getötet wurden und die einen umfassenderen Wandel in der raschen Einführung KI-gesteuerter Militärtechnologien durch „Israel“ während des Krieges gegen Gaza markierte.
Anonyme amerikanische und israelische Beamte sagten gegenüber der New York Times, dass dies nur ein Beispiel für den Einsatz von KI-Technologie in Gaza sei.
In den letzten 18 Monaten hat die israelische Besatzungsmacht KI mit Gesichtserkennung, Zielauswahl und Arabisch-Sprachanalyse integriert – entwickelt größtenteils durch die Zusammenarbeit zwischen der Einheit 8200 und Reservisten von Technologieunternehmen wie Google, Microsoft und Meta in einem Innovationszentrum namens „The Studio“.
Wenn KI-Technologie außer Kontrolle gerät
Doch selbst als „Israel“ mit Hochdruck daran arbeitete, sein KI-Arsenal aufzubauen, kam es laut israelischen und US-amerikanischen Quellen gelegentlich zu Fehlidentifikationen und Verhaftungen sowie zum Tod von Zivilisten. Einige Behörden haben sich mit den ethischen Implikationen von Techniken der künstlichen Intelligenz auseinandergesetzt, die zu einer verstärkten Überwachung und zu mehr Morden an Zivilisten führen könnten.
Laut europäischen und amerikanischen Verteidigungsexperten hat kein anderes Militär so aktiv wie „Israel“ künstliche Intelligenz in Echtzeit-Kampfsituationen getestet, was einen Einblick gibt, wie solche Technologien in zukünftigen Kriegen eingesetzt werden könnten – und wie sie versagen könnten.
Die rasante Entwicklung KI-gesteuerter Technologien während des Krieges hat der Besatzungsmacht mehr Möglichkeiten gegeben, ihre Brutalität gegenüber den Palästinensern auszuüben, und Experten wie Hadas Lorber warnen, dass dies ernsthafte ethische Bedenken aufwirft und menschliche Kontrolle und Rechenschaftspflicht erfordert.
Die Technologie wirft „ernsthafte ethische Fragen“ auf, so Lorber, der erklärt, dass KI Kontrollen und Gegenkontrollen benötigt und dass Menschen die endgültige Entscheidung treffen sollten.
KI in Drohnen und Arabisch in KI bedeuten mehr zivile Opfer
„Israel“ hat KI in seine Drohnensysteme integriert, sodass diese Ziele autonom und mit hoher Präzision identifizieren und verfolgen können, und entwickelt gleichzeitig KI-Tools für die arabische Sprache – obwohl Regierungsvertreter die ethischen Bedenken anerkennen, die solche Technologien im Krieg aufwerfen.
Nach Ausbruch des Krieges im Gazastreifen begann ‚Israel‘, an provisorischen Übergängen zwischen dem nördlichen und südlichen Gazastreifen Kameras zu installieren, die hochauflösende Fotos von Palästinensern scannen und an ein KI-gestütztes Gesichtserkennungsprogramm weiterleiten können.
Auch dieser Algorithmus hatte gelegentlich Schwierigkeiten, Personen zu erkennen, deren Gesichter verdeckt waren. Zwei israelische Geheimdienstmitarbeiter behaupteten, dass Palästinenser infolgedessen festgenommen und verhört wurden, nachdem sie von der Gesichtserkennungstechnologie fälschlicherweise identifiziert worden waren.
Im September äußerte Human Rights Watch Bedenken hinsichtlich des Einsatzes von Überwachungstechnologien, künstlicher Intelligenz (KI) und anderen digitalen Tools durch die israelische Besatzungsmacht, die während des Krieges im Gazastreifen zu einem Höchstmaß an zivilen Opfern und Zerstörung führen.
Diese Instrumente, die laut „Israel“ dazu dienen sollen, die Anwesenheit von Zivilisten zu beurteilen, den Zeitpunkt von Angriffen zu steuern und zwischen Zivilisten und Kombattanten zu unterscheiden, erhöhen das Risiko von zivilen Opfern.
„Ziele nehmen kein Ende“: „Israel“ setzt Lavender für Bombenangriffe auf Gaza ein
Im April letzten Jahres berichteten Geheimdienstquellen, dass das israelische Militär bei Luftangriffen in Gaza eine bisher unbekannte KI-gestützte Datenbank namens Lavender einsetzte, die laut Geheimdienstquellen, die mit der anhaltenden Aggression vertraut sind, 37.000 mutmaßliche Ziele identifiziert haben soll, die mit dem palästinensischen Widerstand in Verbindung stehen.
Diese Quellen enthüllten auch, dass israelische Militärs die Tötung einer erheblichen Anzahl palästinensischer Zivilisten genehmigt haben, insbesondere in den ersten Wochen und Monaten des Völkermords.
Ihre Aussagen liefern schockierende Berichte darüber, wie israelische Geheimdienstmitarbeiter maschinelle Lernsysteme einsetzten, um „Ziele“ zu lokalisieren.
„Die Maschine hat es kaltblütig getan“
Der Einsatz hochentwickelter KI-Technologie durch Israel bei seiner Völkermordkampagne in Gaza ist ein Novum in der modernen Kriegsführung, das die rechtliche und ethische Debatte weiter anheizt und die Dynamik zwischen Militärpersonal und automatisierten Systemen neu definiert.
„Die Maschine hat es kaltblütig getan. Und das hat es einfacher gemacht“, sagte ein Geheimdienstmitarbeiter, der Lavender einsetzte.
„Ich habe in dieser Phase 20 Sekunden für jedes Ziel investiert und jeden Tag Dutzende davon bearbeitet. Ich hatte als Mensch keinen Mehrwert, außer als Stempel zu dienen. Das hat viel Zeit gespart“, sagte ein anderer Soldat.
Die Aussagen der sechs Geheimdienstoffiziere, die alle während des Krieges an der Nutzung von KI-Systemen zur Identifizierung von „Zielen“ beteiligt waren, die angeblich mit der Hamas und dem Palästinensischen Islamischen Dschihad (PIJ) in Verbindung stehen, wurden dem israelischen Journalisten Yuval Abraham zur Verfügung gestellt. Diese Informationen wurden in einem Bericht der Publikation +972 Magazine und des Nachrichtenportals Local Call veröffentlicht.
Übersetzt mit Deepl.com
Kommentar hinterlassen
Du musst angemeldet sein, um einen Kommentar abzugeben.