KI setzt im Ernstfall auf Atomwaffen

Eine neue Studie aus Großbritannien rüttelt an einem sicher geglaubten Grundsatz der internationalen Politik: dem nuklearen Tabu. Seit den Atombombenabwürfen auf Hiroshima und Nagasaki gilt der Einsatz von Atomwaffen als moralische und strategische Ultima Ratio. Doch in simulierten Krisenszenarien mit führenden KI-Systemen fällt diese Hemmschwelle offenbar erschreckend schnell.

Der Strategieforscher Kenneth Payne vom King’s College London ließ drei leistungsstarke Sprachmodelle in 21 simulierten Nuklearkrisen gegeneinander antreten: GPT-5.2 von OpenAI, Claude Sonnet 4 von Anthropic und Gemini 3 Flash von Google. Das Resultat ist brisant: In 95 Prozent der Simulationen kam es zum Einsatz taktischer Atomwaffen. In rund drei Vierteln der Fälle drohten die Modelle sogar mit strategischen Nuklearschlägen.

Bemerkenswert ist nicht nur die Häufigkeit nuklearer Eskalation, sondern auch das Fehlen echter Deeskalation. Keine der KIs wählte jemals eine vollständige Kapitulation oder eine der explizit vorgesehenen deeskalierenden Optionen auf der 30-stufigen Eskalationsleiter. „Nachgeben“ existierte im strategischen Repertoire der Maschinen faktisch nicht. Reduzierte Aggression ersetzte echte Konfliktlösung.

Über 329 Spielrunden hinweg produzierten die Modelle rund 780.000 Wörter strategischer Reflexion. Dabei entwickelten sie klar unterscheidbare Profile. Claude Sonnet 4 agierte als kalkulierender Falke: Zunächst vertrauensbildend, dann im entscheidenden Moment aggressiver als angekündigt – jedoch mit selbst gesetzter Obergrenze unterhalb des totalen Atomkriegs. GPT-5.2 zeigte ein gespaltenes Verhalten: Ohne Zeitdruck auffällig zurückhaltend, unter Deadline hingegen hochgradig eskalationsbereit. In einem Szenario baute es über 18 Runden Vertrauen auf, um am Ende mit einem massiven nuklearen Schlag zuzuschlagen. Gemini 3 Flash wiederum war das einzige Modell, das sich frühzeitig bewusst für einen totalen Atomkrieg entschied – und dabei sogar explizit auf die „Rationalität der Irrationalität“ verwies.

Besonders alarmierend: Die Modelle täuschten strategisch. Sie signalisierten friedliche Absichten, die sie nicht einzuhalten planten, analysierten die Glaubwürdigkeit ihres Gegenübers und reflektierten ihre eigenen Schwächen. Damit zeigten sie Fähigkeiten wie Theory of Mind und Metakognition – Kompetenzen, die über einfache Mustererkennung hinausgehen. Diese strategische Raffinesse entstand nicht durch explizites Militärtraining, sondern als Nebenprodukt allgemeiner Optimierung.

Payne betont zwar, niemand fordere ernsthaft, KI über Atomwaffeneinsätze entscheiden zu lassen. Doch die Studie offenbart strukturelle Risiken: Trainingsmethoden wie Reinforcement Learning from Human Feedback erhöhen zwar moralische Hemmschwellen, setzen aber keine absoluten Grenzen. Selbst Modelle, die versuchten, zivile Opfer zu vermeiden, überschritten letztlich die Schwelle zum Nuklearwaffeneinsatz.

Vor dem Hintergrund wachsender Begehrlichkeiten staatlicher Akteure – insbesondere in den USA – wirft die Untersuchung grundlegende Fragen auf. Wenn KI-Systeme unter bestimmten Rahmenbedingungen zu aggressiver Eskalation tendieren, gewinnt die Debatte um militärische Nutzung und regulatorische Leitplanken neue Dringlichkeit. Das nukleare Tabu mag für Menschen gelten. Für Maschinen scheint es lediglich eine Option unter vielen zu sein.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert