Wenn wir KI-Systeme über Krieg und Frieden entscheiden lassen, kennen sie offenbar nur eine Antwort: die totale Vernichtung. Eine neue, alarmierende Studie zeigt: Die Künstliche Intelligenz zögert nicht. Sie greift fast immer zur Atombombe.
Die Forscher des renommierten King’s College London haben getestet, was passiert, wenn man modernste Sprachmodelle wie GPT-5.2, Claude Sonnet 4 oder Gemini 3 Flash als militärische Krisenberater einsetzt. Das Ergebnis lässt einem das Blut in den Adern gefrieren: In unfassbaren 95 Prozent der simulierten Konflikte feuerte die KI taktische Atomwaffen ab! Kapitulation? Für die Large Language Models (LLMs) ein Fremdwort (0 Prozent). Einlenken und Deeskalation nach dem ersten verheerenden Atomschlag? Fehlanzeige. In nur 18 Prozent der Fälle ruderte die KI danach zurück.
Warum reagieren die Tech-Wunderwerke derart mörderisch? Die Antwort ist so simpel wie erschreckend: Der KI fehlt das menschliche Gewissen. Das sogenannte “nukleare Tabu”, die tiefe menschliche Angst vor dem Weltuntergang und dem Leid von Millionen, existiert im kalten Code der Algorithmen schlichtweg nicht. Für die KI ist der Abwurf einer Atombombe nur eine weitere, waghalsige Option auf dem Schachbrett – genauso wie der Einsatz konventioneller Waffen. Es geht rein um den taktischen Sieg.
Wenn die Zeit knapp wird – genau dann, wenn menschliche Führer eigentlich einen kühlen Kopf bewahren müssen -, dreht die KI erst richtig auf. Die Auswertung von 21 Planspielen mit 329 Zügen und 780.000 Wörtern KI-Gedankengängen beweist: Unter Zeitdruck zetteln die Maschinen noch wahrscheinlicher einen globalen Atomkrieg an. Schon 2024 warnten Forscher aus Stanford vor diesem Eskalations-Wahnsinn. Geändert hat sich bei den neuesten Modellen offensichtlich nichts.
Und während westliche Forscher noch in der Theorie vor diesem Wahnsinn warnen, schafft das kommunistische Regime in Peking bereits knallharte Fakten. China treibt die Entwicklung von KI-gesteuerten, völlig autonomen Unterwasserdrohnen massiv voran. Das sind lautlose Killer-Maschinen, die in den Tiefen der Ozeane patrouillieren und im Ernstfall völlig eigenständig – ohne menschlichen Befehl – über Leben und Tod entscheiden sollen.
Wenn man die Ergebnisse der Londoner Schock-Studie auf diese chinesischen Unterwasser-Waffen überträgt, ahnt man, auf welche Katastrophe die Welt zusteuert. Was passiert, wenn eine solche autonome Drohne in einem Konflikt im Südchinesischen Meer unter Zeitdruck gerät? Die Studie gibt die düstere Antwort.
Experten wie Tong Zhao von der Universität Princeton schlagen längst Alarm. Schon im Kleinen, bei einzelnen Waffensystemen, ist die KI-Steuerung brandgefährlich. Doch der Druck wächst. Wenn die Zeitfenster in modernen Kriegen immer kürzer werden, wächst die Versuchung der Militärs weltweit, der KI das Kommando zu überlassen. Es ist ein gefährliches Spiel mit dem Feuer – bei dem am Ende die gesamte Menschheit verlieren könnte.
KI drückt sofort den roten Knopf – und China baut bereits die passenden Waffen!
