
Debattieren Sie mit einem Bot? Untersuchung zeigt, dass Israels KI-Bots mit Online-Kritikern argumentieren
Von Jessica Buxbaum
15. November 2024
In den letzten Monaten sind Berichte aufgetaucht, wonach Israel künstliche Intelligenz nicht nur auf dem Schlachtfeld in Gaza, sondern auch online einsetzt, wo das Ziel darin besteht, die öffentliche Meinung durch Social-Media-Bots zu beeinflussen, die Falschinformationen verbreiten.
Israel hat eine lange Tradition darin, soziale Medien für Propaganda zu nutzen, sei es durch die Zusammenarbeit mit Technologieunternehmen, um pro-palästinensische Inhalte zu kennzeichnen, oder durch die Mobilisierung von Troll-Armeen zur Unterstützung seiner Darstellung. Mit dem Aufkommen der KI hat Israel neue Methoden gefunden, um die öffentliche Meinung zu seinen Gunsten zu beeinflussen, indem es KI-gesteuerte Social-Media-Konten einsetzt, um Vorwürfe gegen den Staat zu „entlarven“.
Nour Naim, ein palästinensischer KI-Forscher, hat diese Verschiebung aus erster Hand beobachtet. „Vom ersten Tag an bin ich auf eine beunruhigende Anzahl gefälschter Konten gestoßen, die israelische Propaganda verbreiten“, sagte Naim gegenüber MintPress News. „Diese Konten, die als digitale Trolle fungieren, versuchen systematisch, entweder gut dokumentierte Beweise für den Völkermord in Gaza – gestützt durch Audio- und Videobeweise – zu diskreditieren oder die Fakten insgesamt zu verfälschen.“
Israels KI-Trollarmee
Israel nutzt seit langem die sozialen Medien, um sein Image mit großer Wirkung zu pflegen. Es arbeitet mit Technologieunternehmen zusammen, um pro-palästinensische Inhalte zu kennzeichnen, und setzt koordinierte Online-Gruppen ein, um Online-Kritik zu unterdrücken. Aber jetzt bietet KI neue Instrumente zur Einflussnahme. MintPress News hat mehrere Konten identifiziert, die unter Namen wie Fact Finder (@FactFinder_AI), X Truth Bot (@XTruth_bot und @xTruth_zzz), Europe Invasion (@EuropeInvasionn), Robin (@Robiiin_Hoodx), Eli Afriat (@EliAfriatISR), AMIRAN (@Amiran_Zizovi) und Adel Mnasa (@AdelMnasa96892) operieren. Jeder Account scheint darauf ausgelegt zu sein, Kritik zu „entkräften“ und eine optimierte pro-israelische Perspektive zu verbreiten.
Die ersten drei Accounts erwähnen Israel in ihren Biografien nicht, aber die meisten ihrer Beiträge weisen klare Anzeichen für pro-israelische Propaganda auf.
In der Biografie von Fact Finder heißt es: „Empowering #SmartConversations with AI-driven facts. Countering misinformation with knowledge, not censorship, one post at a time! #FactOverFiction.“
Die Beiträge des Kontos zielen darauf ab, Informationen, die Israel negativ darstellen, zu entlarven. Dies geschieht durch Antworten auf Nachrichtenartikel oder pro-palästinensische Stimmen oder durch die Erstellung von Beiträgen, die angeblich Berichte über die Tötung palästinensischer Zivilisten und Helfer durch Israel sowie andere Akte staatlicher Gewalt widerlegen. Diese sogenannten Klarstellungen lesen sich jedoch wie aus dem Protokoll eines Militärsprechers und rechtfertigen Angriffe oft als Beseitigung von Terroristen.
Der X Truth Bot operiert unter zwei Profilen: @XTruth_bot, eingerichtet im August 2024, und @xTruth_zzz, eingerichtet im Januar 2024. Beide Konten werden von dem britisch-russischen Blogger Vodka & Seledka (@seledka_vodka) verwaltet. Sie bewerben einen Telegram-Bot, der angeblich die Google-Suche zur Überprüfung von Aussagen auf X verwendet, die Vodka & Seledka angeblich entwickelt hat. Bemerkenswert ist, dass Vodka & Seledka mehreren pro-israelischen Konten folgt und häufig zionistische Inhalte teilt.
„Europe Invasion“ konzentriert sich hauptsächlich auf fremdenfeindliche Inhalte, die sich gegen Einwanderer, insbesondere Muslime, richten. Der Account stellt häufig Verbindungen zwischen pro-palästinensischen Demonstranten und Hamas-Anhängern her und setzt die beiden in seinen Beiträgen gleich.
Jüngste Untersuchungen haben ergeben, dass der X-Account „Europe Invasion“, der für die Verbreitung fremdenfeindlicher Inhalte gegen muslimische Einwanderer und die Gleichsetzung von pro-palästinensischen Demonstranten mit Hamas-Anhängern bekannt ist, wahrscheinlich von einem türkischen Unternehmerpaar mit Sitz in Dubai betrieben wird. Der schwedische Nachrichtensender SVT berichtete, dass dieses Paar auch mit dem X-Account „Algorithm Coach“ (@algorithmcoachX) in Verbindung steht. Als das Paar darauf angesprochen wurde, stritt es eine direkte Beteiligung ab und gab an, eine Werbeagentur mit der Bewerbung ihres Unternehmens beauftragt zu haben. Beide Konten wurden mehrfach umbenannt; insbesondere „Europe Invasion“ war zuvor ein Kryptowährungskonto unter dem Benutzernamen @makcanerkripto und hat laut Botometer einen Bot-Score von 4 von 5.
Nach der Untersuchung von SVT aktualisierte Europe Invasion sein Profil und behauptete, von „Stefan“, einem Montenegriner serbischer Herkunft, verwaltet zu werden. SVT berichtete jedoch, dass bei der Kontaktaufnahme mit der Werbeagentur, die mit dem türkischen Ehepaar in Verbindung steht, das angeblich hinter dem Konto steht, eine Person namens Stefan antwortete – mit einem auf Türkisch eingestellten E-Mail-Konto.
Die nächsten drei Konten auf der Liste – Robin (@Robiiin_Hoodx), Eli Afriat (@EliAfriatISR) und AMIRAN (@Amiran_Zizovi) – nehmen in ihren Biografien ausdrücklich Bezug auf Israel oder den Zionismus.
Robin, der X im Mai 2024 beigetreten ist, beschreibt sich in seiner Biografie wie folgt: „• Ich denke an nichts anderes als Kämpfen • STOLZER JUDE & STOLZER ZIONIST.“ Zwei dieser Konten verwenden KI-generierte Profilbilder von israelischen Soldaten. Sie interagieren häufig miteinander, antworten auf die Inhalte des jeweils anderen und posten diese erneut und folgen verschiedenen pro-israelischen Konten.
Andere Konten, darunter Mara Weiner (@MaraWeiner123), Sonny (@SONNY13432EEDW), Jack Carbon (@JaCar97642), Allison Wolpoff (@AllisonW90557) und Emily Weinberg (@EmilyWeinb23001), zeigen ein botähnliches Verhalten. Ihre Benutzernamen enthalten Zufallszahlen, und sie haben entweder kein Profilbild oder verwenden vage Bilder. Die meisten dieser Konten wurden nach Oktober 2023 erstellt, zeitgleich mit dem Beginn der Militäraktionen Israels in Gaza. Sie antworten überwiegend auf pro-palästinensische Beiträge, indem sie zionistische Standpunkte vertreten.
Die libanesischen Forscher Ralph Baydoun und Michel Semaan von der Kommunikationsberatungsfirma InflueAnswers beschreiben „Superbots“ als Israels neue Geheimwaffe im digitalen Informationskrieg um seine Operationen in Gaza.
Frühere Versionen von Online-Bots waren weitaus einfacher, verfügten nur über begrenzte Sprachfähigkeiten und konnten nur auf vorgegebene Befehle reagieren. „Online-Bots früher, insbesondere Mitte der 2010er Jahre, … spuckten meist immer wieder denselben Text aus. Der Text … war ganz offensichtlich von einem Bot geschrieben worden“, sagte Semaan gegenüber Al Jazeera.
Andererseits können KI-gestützte Superbots, die große Sprachmodelle (LLMs) verwenden – Algorithmen, die auf riesigen Mengen von Textdaten trainiert wurden – intelligentere, schnellere und vor allem menschlichere Antworten produzieren. Beispiele für diese LLMs sind ChatGPT und Googles Gemini.
Diese KI-Bots wurden nicht nur heimlich in den sozialen Medien eingesetzt; pro-israelische Aktivisten haben auch KI-gestützte Troll-Armeen zusammengestellt, um ihre Botschaften zu verstärken.
Im Oktober 2023, als Israel seine Militärkampagne in Gaza startete, entwickelte Zachary Bamberger, ein Doktorand an der israelischen Technion-Universität, einen LLM, der speziell darauf ausgelegt war, den seiner Meinung nach „antiisraelischen“ Inhalten entgegenzuwirken und pro-israelische Beiträge auf Online-Plattformen zu verstärken.
Bambergers Unternehmen, Rhetoric AI, ist darauf ausgelegt, Übersetzungen von arabischen und hebräischen Social-Media-Inhalten zu erstellen, zu beurteilen, ob Beiträge gegen die Nutzungsbedingungen der Plattform verstoßen, und Verstöße schnell zu melden. Für Beiträge, die nicht gegen die Nutzungsbedingungen verstoßen, generiert das Tool das seiner Meinung nach wirksamste Gegenargument.
„Wenn unsere Plattform in größerem Umfang eingesetzt wird, wird sie das Gleichgewicht der Inhalte verschieben und denjenigen, die Hass, Gewalt und Lügen verbreiten, den zahlenmäßigen Vorteil nehmen“, sagte Bamberger gegenüber der American Technion Society.
Bei der Entwicklung von Rhetoric AI wurde Bamberger von 40 Doktoranden unterstützt, und das Unternehmen arbeitet nun mit den Technologiegiganten Google und Microsoft zusammen.
Eine weitere Plattform, AI4Israel, nutzt ebenfalls KI, um Gegenargumente in den sozialen Medien zu formulieren. Das Tool wurde vom israelisch-amerikanischen Datenwissenschaftler und Pro-Israel-Aktivisten Amir Give’on gegründet und ist Teil eines Freiwilligenprojekts. Im November 2023 bewarb Give’on AI4Israel in einem LinkedIn-Artikel und hat seitdem auf seinem X-Account über die Plattform berichtet.
Give’on gab Einzelheiten zur Funktionsweise der AI4Israel-Plattform bekannt und erklärte:
Es scannt eingehende Ansprüche und gleicht sie mit einer bereits vorhandenen Datenbank ab. Wenn ein Anspruch bereits aufgetreten ist, ruft das Tool eine gespeicherte Antwort ab. Wenn es sich um einen neuen Anspruch handelt, generiert das Tool eine Antwort mithilfe eines Retrieval-Augmented-Generation-Modells (RAG), das auf einem riesigen Datenbestand basiert.“
Er betonte auch die Rolle der Freiwilligen bei der Steigerung der Effektivität von AI4Israel:
Freiwillige priorisieren Ansprüche auf der Grundlage der Häufigkeit und verfeinern die Antworten, um Relevanz und Genauigkeit sicherzustellen. Sie identifizieren auch Lücken in unserer Wissensdatenbank und erweitern sie ständig, insbesondere als Reaktion auf aktuelle Ereignisse.“
Die Rolle der israelischen Regierung
KI hat eine zentrale Rolle bei den Online-Einflussnahme-Operationen Israels gespielt, die darauf abzielten, die öffentliche Meinung über den Krieg zu beeinflussen. Im Mai 2024 gaben das Social-Media-Unternehmen Meta und der Eigentümer von ChatGPT, OpenAI, bekannt, dass sie ein Netzwerk von KI-gestützten Konten gesperrt hatten, die pro-israelische und islamfeindliche Inhalte verbreiteten. Die Kampagne, die vom israelischen Ministerium für Diaspora-Angelegenheiten inszeniert und von der israelischen Politikberatungsfirma Stoic durchgeführt wurde, sollte den Online-Diskurs beeinflussen.
Naim, ein Einwohner des Gazastreifens, hob die schädlichen Auswirkungen dieser Desinformationsbemühungen hervor.
„Jeden Tag sehe ich mich auf Twitter [jetzt X] mit Kommentaren konfrontiert, in denen ich entweder der Lüge bezichtigt werde oder meine Nachrichten in Frage gestellt werden, obwohl ich verifizierte Quellen angebe“, sagte Naim gegenüber MintPress News.
Einige Personen … haben die Nachricht vom Tod von sieben meiner Cousins und Familienmitglieder geleugnet und fälschlicherweise behauptet, dass ihre Familien für ihr Opfer verantwortlich seien. Diese anhaltende Desinformationskampagne ist eine tägliche Herausforderung, da ich mich bemühe, genaue Informationen über die Gräueltaten in Gaza zu verbreiten.“
Im September trat Israel dem ersten globalen Vertrag über KI bei – einem internationalen Abkommen, das den verantwortungsvollen Einsatz der Technologie regeln und gleichzeitig die Menschenrechte, die Demokratie und die Rechtsstaatlichkeit schützen soll. Der Vertrag wurde in Zusammenarbeit mit den Vereinigten Staaten, dem Vereinigten Königreich, der Europäischen Union und anderen Ländern geschlossen, und die Teilnahme Israels stieß auf Widerstand, insbesondere angesichts der Tatsache, dass Israel KI zur Durchführung seiner völkermörderischen Kampagne in Gaza einsetzt.
Doch Israels gefährliche KI-Fortschritte auf dem Schlachtfeld und im Internet könnten sich noch verstärken. Zusätzlich zum Beitritt zum internationalen Vertrag kündigte Israel die zweite Phase seines Programms für künstliche Intelligenz an, das bis 2027 laufen und mit einem Budget von 500 Millionen NIS (ca. 133 Millionen US-Dollar) ausgestattet sein wird.
Für Naim offenbart der Missbrauch von KI durch Israel zur Verfälschung und Erfindung von Informationen eine beunruhigende Seite der Technologie, insbesondere in Bezug auf die Manipulation der öffentlichen Meinung, die Erosion des Vertrauens und die Anstiftung zu Hass und Gewalt.
Da es durch die dunkleren Anwendungen von KI schwieriger wird, Fakten von Fiktion zu unterscheiden, schlägt Naim vor, Social-Media-Inhalte mit „einer gesunden Portion Skepsis“ zu betrachten.
„Nicht alles, was man online sieht, ist wahr, vor allem, wenn es übertrieben sensationell oder emotional wirkt“, warnt Naim. “Überprüfen Sie Informationen immer, indem Sie nach der Originalquelle suchen, ihre Glaubwürdigkeit überprüfen und nach Bestätigungen aus mehreren Quellen suchen.“
Sie empfiehlt, auf Warnsignale wie Rechtschreibfehler und manipulierte Bilder zu achten und Verifizierungswerkzeuge wie die umgekehrte Bildersuche und Websites zur Faktenprüfung zu nutzen.
Naim merkt jedoch an, dass KI nicht von Natur aus schädlich ist. „Während Israel KI für schädliche Zwecke ausnutzt, haben wir die Möglichkeit, KI konstruktiv zu nutzen“, sagte sie. „Durch den Einsatz von KI können wir die palästinensische Erzählung verstärken und präzise vermitteln und sicherstellen, dass die wahren Geschichten der vom Völkermord in Gaza Betroffenen in mehreren Sprachen und auf verschiedenen Plattformen gehört werden.“
Feature-Foto | Illustration von MintPress News
Jessica Buxbaum ist eine in Jerusalem ansässige Journalistin für MintPress News, die über Palästina, Israel und Syrien berichtet. Ihre Arbeiten wurden in Middle East Eye, The New Arab und Gulf News veröffentlicht.
Veröffentlichen Sie unsere Artikel erneut! MintPress News ist unter einer Creative Commons Namensnennung-Nicht kommerziell-Weitergabe unter gleichen Bedingungen 3.0 International Lizenz lizenziert.
Übersetzt mit Deepl.com
Kommentar hinterlassen
Du musst angemeldet sein, um einen Kommentar abzugeben.