Die Sicherung der atomaren Zweitschlagfähigkeit ist die Grundlage der Abschreckungsstrategie, die bis heute jeden potentiellen Angreifer abgehalten hat, einen atomaren Angriff zu starten: „Wer als erster schießt, stirbt als zweiter.“
Um auch bei einer Gefährdung der Zweitschlagfähigkeit reagieren zu können, haben die Atommächte computergestützte Frühwarn- und Entscheidungssysteme entwickelt und installiert, mit dem Ziel einen Angriff rechtzeitig zu erkennen, um die eigenen atomaren Trägerraketen vor dem vernichtenden Einschlag aktivieren zu können. Eine solche Strategie wird als „launch-on-warning“-Strategie bezeichnet. Obwohl die Zeitspanne für Entscheidungen bei einer Angriffsmeldung in den letzten Jahren auf wenige Minuten gesunken ist, bleibt jedoch bisher die letzte Entscheidung – nicht zuletzt wegen der Fehleranfälligkeit solcher Systeme – Menschen überlassen.
Das Ende des INF-Vertrages (INF steht für Intermediate Range Nuclear Forces) hat zu einem neuen Wettrüsten auch mit Hyperschallraketen geführt, die diese Zeitspanne nun noch weiter verkürzen. Für eine Analyse und Bewertung dieser Alarmmeldungen bleibt für Menschen daher so wenig Zeit, dass hierfür seit neuerem verstärkt Systeme der Künstlichen Intelligenz (KI) eingesetzt werden sollen. Während KI-Systeme zur Aufklärung durchaus nützlich sein können, halten wir die finale Entscheidung zum Gegenschlag durch einen Computer für ethisch nicht vertretbar. Auch KI-Systeme können bei solchen Anwendungen keine sicheren Ergebnisse liefern, denn die zugrundeliegenden Daten sind unsicher, vage und unvollständig. Automatische Erkennungsergebnisse gelten deshalb nur mit einer gewissen Wahrscheinlichkeit und können falsch sein.
Aufgrund der unsicheren Datengrundlage stützen Menschen ihre Entscheidungen auch auf Kontextwissen über die politische Lage und die Einschätzung des “Gegners”, die durch das potentielle Ende des “Open Skies”-Vertrages zusätzlich erschwert wird. Beispielsweise hat in einem Alarmfall die Bedienmannschaft des amerikanischen Frühwarnsystems entschieden, dass es sich um einen Fehlalarm handeln muss, da zu dieser Zeit der sowjetische Staatschef auf Staatsbesuch in Washington war. Ein ernster Fehlalarm im sowjetischen Frühwarnsystem geschah 1983, wo nur ein mutiger Eingriff des Kommandeurs Stanislav Petrow die atomare Katastrophe verhindert hat.
Auch bei maschinellen Entscheidungen muss zur Bewertung von Alarmmeldungen Kontextwissen zur weltpolitischen Lage einbezogen werden und dieses Wissen ist ebenfalls unsicher, vage und unvollständig. Das Ergebnis der Analyse durch ein KI-System ist daher immer nur im Rahmen einer statistischen Wahrscheinlichkeit korrekt.
Einhergehend mit neuer Technik entstehen zumeist auch neue Risiken und Ängste. So wurde aus Teilen der Bevölkerung häufig eine irrationale Gefahr beschrieben, die real gar nicht bestand. Beispielsweise wurde die Gefahr schneller Reisen im Zug im 19. Jahrhundert als gefährlich eingestuft und aktuell die Gefahr von autonomen Fahrzeugen oder Robotern. Dabei hat objektiv die Sicherheit durch den Einsatz neuer Technologien zugenommen und beim autonomen Fahren gehen viele Experten von einer deutlich reduzierten Unfallgefahr aus. Wichtig ist bei der Entwicklung von Innovationen zu zuverlässigen Technologien immer der wiederholte Kreislauf von “Trial-and-Error”: Die Fehlklassifikation einer LKW-Plane als “freie Straße” im früheren Einsatz des Tesla, die zu einem schweren Unfall führte, wurde behoben und führte zu besseren und robusteren Klassifikationsverfahren. Jedoch sind in solchen Fällen die Risiken überschaubar. Bei den Frühwarn- und Entscheidungssystemen ist ein Ausprobieren auf Grund der katastrophalen Folgen jedoch nicht möglich. Hier hat bereits der erste Fehler das Potential, der Gesellschaft und seiner Ökologie irreparable Schäden in einer Dimension zuzufügen, die einen Fortbestand unserer modernen Gesellschaft gefährdet.
Es darf aber nicht sein, dass von der Entscheidung eines einzelnen Menschen oder einer Maschine das Überleben der gesamten Menschheit abhängt. Die Gefahr eines Atomkrieges aus Versehen kann nicht durch stärkeren Einsatz von Methoden der Künstlichen Intelligenz in Frühwarnsystemen reduziert werden. Aufgrund der unsicheren und unvollständigen Datengrundlage können weder Menschen noch Maschinen eingehende Alarmmeldungen zuverlässig bewerten.
Verantwortlich für diesen Text: Prof. Dr. (Ph. D.) grad. Ing. Jörg Siekmann