Atomkriegsrisiko und Künstliche Intelligenz – Informatiker warnen Autor: Leo Ensel

Atomkriegsrisiko und Künstliche Intelligenz – Informatiker warnen

Unter dem Titel „Künstliche Intelligenz und nukleare Bedrohungen“ ist ein Reader erschienen, dessen Warnung auf dem Hintergrund des Ukrainekrieges eine beklemmende Brisanz erfährt: Der wachsende Einsatz von KI erhöht die Gefahr eines Atomkriegs aus Versehen. In der Nacht vom 25. auf den 26.

Atomkriegsrisiko und Künstliche Intelligenz – Informatiker warnen

in Allgemein, Geschichte, Rezensionen

Unter dem Titel „Künstliche Intelligenz und nukleare Bedrohungen“ ist ein Reader erschienen, dessen Warnung auf dem Hintergrund des Ukrainekrieges eine beklemmende Brisanz erfährt: Der wachsende Einsatz von KI erhöht die Gefahr eines Atomkriegs aus Versehen.

In der Nacht vom 25. auf den 26. September, mitten im kältesten Kalten Krieg, schrillte um 0:15 Ortszeit im sowjetischen Raketenabwehrzentrum Serpuchow bei Moskau die Sirene. Das Frühwarnsystem meldete den Start einer amerikanischen Interkontinentalrakete. Dem diensthabenden Offizier Petrow blieben nur wenige Minuten zur Einschätzung der Lage. Im Sinne der geltenden Abschreckungslogik – „Wer zuerst schießt, stirbt als zweiter!“ – hatte die Sowjetführung weniger als eine halbe Stunde Zeit, den alles vernichtenden Gegenschlag auszulösen. Petrow analysierte die Situation und meldete nach zwei Minuten der Militärführung Fehlalarm infolge eines Computerfehlers. Während er noch telefonierte, zeigte das System einen zweiten Raketenstart an, kurz darauf folgten ein dritter, vierter, fünfter Alarm. Stanislaw Petrow behielt trotz allem die Nerven und blieb bei seiner Entscheidung. Nach weiteren 18 Minuten extremster Anspannung passierte – nichts! Der diensthabende Offizier hatte rechtbehalten. Es hatte sich in der Tat um einen Fehlalarm gehandelt; wie sich ein halbes Jahr später herausstellte, infolge einer äußerst seltenen Konstellation von Sonne und Satellitensystem, noch dazu über einer US-Militärbasis. Das sowjetische Abwehrsystem hatte diese Konfiguration als Raketenstart fehlinterpretiert.

Was geschehen wäre, wenn Petrow zu einer anderen Einschätzung gelangt und dem als äußerst argwöhnisch geltenden Parteichef Andropow den Anflug mehrerer amerikanischer Interkontinentalraketen gemeldet hätte – und dies im Vorfeld der Stationierung von US-Mittelstrecken­raketen in Westeuropa und drei Wochen nach dem Abschuss einer südkoreanischen Passagiermaschine über der russischen Insel Sachalin –, das kann sich jeder ausrechnen, der bereit ist, die notwendige Phantasie und den Mut aufzubringen, Eins und Eins zusammenzuzählen. Nie hat die Welt vermutlich so unmittelbar vor einem alles vernichtenden atomaren Weltkrieg gestanden.

Die Rückkehr der Atomkriegsgefahr

Blickt man von heute, fast vierzig Jahre später, auf diesen äußerst kritischen ‚Critical Incident‘, so kommt einem die Ausgangssituation – die ‚Feder‘ sträubt sich, dies niederzuschreiben – fast idyllisch vor! Gab es doch, erstens, weltweit nur zwei relevante Akteure, die mit der Drohung der nuklearen Totalvernichtung einander in Schach hielten; belief sich, zweitens, der Zeitraum für Entscheidungen immerhin noch auf schätzungsweise um die zehn Minuten und drittens hatten wir es, das ist der springende Punkt, noch mit Menschen zu tun, die – wenn auch auf Basis möglicherweise fehlerhafter Computermeldungen – definitiv die Entscheidung über Krieg und Frieden, genauer: über Sein oder Nicht-Sein unseres gesamten Planeten, zu treffen hatten.

Heute, im Jahre 2023, sind all diese Parameter weitestgehend obsolet.

Die erheblich unübersichtlichere multipolare Welt der Gegenwart ist charakterisiert durch mehr als zwei relevante ‚nukleare Player‘, die sich zudem immer weniger an Regeln halten, völlig neuartige, schwer zu ortende und zugleich äußerst präzise Waffensysteme wie Hyperschallwaffen, die keine ballistischen Flugbahnen mehr beschreiben und eine dramatische Verkürzung der Vorwarnzeiten, sodass sich als gespenstische Option am Horizont die Delegation der Entscheidung über ein globales „To be or not to be“ an sogenannte Künstliche Intelligenz abzeichnet. Mit allen Risiken und Nebenwirkungen, die eine solche dystopische Perspektive, namentlich zu Krisen- oder gar Kriegszeiten, impliziert. Weiterlesen in globalbridge.ch

Symbolbild Künstliche Intelligenz (Bild: https://www.simplilearn.com/artificial-intelligence-vs-human-intelligence-article )

Hinterlasse jetzt einen Kommentar

Kommentar hinterlassen

E-Mail Adresse wird nicht veröffentlicht.


*