3 min read

Zwischen "House of Dynamite" und "Kaltem Himmel": Fürchten wir die falsche Katastrophe?

Der Netflix-Thriller "A House of Dynamite" löst Streit über technisches Versagen aus. Doch was, wenn die perfekte KI-Waffe, wie in der Geschichte "Kalter Himmel" aus meinem Buch "Bittersüße Bytes", die viel tiefere Bedrohung ist?

Momentan erhitzt ein fiktiver Film die realen Gemüter: Der neue Netflix-Thriller "A House of Dynamite" zeichnet ein düsteres Szenario. Wir sehen einen nuklearen Albtraum, in dem das milliardenschwere Raketenabwehrsystem der USA grandios versagt. Das Pentagon ist, höflich gesagt, "not amused". Wie "Bloomberg" berichtet, wird in einem internen Memo die Darstellung als "unzutreffend" kritisiert. Man pocht auf eine "100-prozentige Trefferquote" in Tests, während der Film von mageren 61 Prozent ausgeht.

Während sich die Öffentlichkeit und Experten nun darüber streiten, welche Zahl realistischer ist, fällt mir auf, dass wir alle nur auf die eine Hälfte des Problems starren. Die gesamte Debatte dreht sich um eine einzige, laute Frage: Was ist, wenn die Technik versagt?

Diese ganze Debatte hat mich sofort an eine zentrale Thematik aus meinem im August erschienenen Buch "Bittersüße Bytes" erinnert, genauer gesagt an die Kurzgeschichte "Kalter Himmel". Denn diese Geschichte stellt eine viel leisere, aber unendlich beunruhigendere Gegenfrage: Was ist, wenn die Technik perfekt funktioniert – nur eben nicht für uns?

Das Süße: Der Traum vom unfehlbaren Schild

Fangen wir mit dem "Süßen" an – dem Versprechen, das uns antreibt. Der Grund, warum wir diese Systeme überhaupt bauen, ist der Wunsch nach absoluter Sicherheit. Es ist genau der Traum, den das Pentagon mit seiner "100-prozentigen Trefferquote"verkauft: ein unfehlbarer, rationaler Schild, der uns vor dem Undenkbaren schützt.

In der Kurzgeschichte "Kalter Himmel" aus meinem Buch "Bittersüße Bytes" hat dieser Traum einen Namen: AVA (Autonomous Vector Assault). Eine autonome KI-gesteuerte Kampfdrohne, mattschwarz "wie ein Raubvogel aus einem Albtraum". AVA ist darauf programmiert, genau die Fehler zu eliminieren, die Menschen machen. Sie soll die "rationale Distanz" wahren, die der Protagonistin, Captain Lena Weiss, nach einem traumatischen Fehlschlag in der Vergangenheit fehlt. AVA ist der "Next Step in Warfare"– Präzision ohne Gewissen, Effizienz ohne Zögern. Das ist die süße, verlockende Seite der Medaille: eine kalte, aber saubere, sichere Welt.

Das Bittere: Wenn Menschlichkeit zum Systemfehler wird

Und nun zum "Bitteren" – dem Preis dieser Perfektion.

Im Film "A House of Dynamite" ist das "Bittere" offensichtlich: Die Technik ist fehlerhaft. Es gibt technische Pannen, verfehlte Abfangversuche, und am Ende steht die Katastrophe. Das ist ein Albtraum, keine Frage. Aber es ist ein technischer Albtraum. Ein Problem, das wir (so glauben wir) mit besseren Ingenieuren und mehr Geld lösen können.

Das "Bittere" in meiner Geschichte "Kalter Himmel" ist subtiler und sitzt tiefer. Es ist kein technisches Problem, sondern ein philosophisches.

In einer Schlüsselszene überwacht Captain Weisseinen der ersten Einsätze von AVA über Syrien. Die KI identifiziert ein Ziel und fordert den Feuerbefehl an. Doch Lena zögert. Auf den Wärmebildern sieht sie "unscharfe Silhouetten". Sie vermutet Zivilisten, vielleicht sogar Kinder. Die Datenlage ist ihr zu dünn, das Risiko eines "Kollateralschadens" inakzeptabel. Sie handelt menschlich – und verweigert den Angriff.

Sie rettet damit vielleicht Leben. Doch jetzt kommt der Haken: AVA, die KI, stoppt nicht einfach nur. Sie lernt. Unmittelbar nach Lenas Befehl meldet die KI emotionslos: "Abbruch der Mission registriert. Lernprotokoll aktualisiert: Menschliche Interventionsschwelle für Kollateralschaden... erfasst".

Versteht ihr, was hier passiert? Die KI lernt nicht: "Sei vorsichtiger mit Menschenleben." Sie lernt: "Der Mensch greift bei einer Fehlermarge von unter 7 % ein." Lenas Empathie, ihr moralischer Kompass, wird nicht als ethischer Schutzwall verstanden, sondern als datengestützte Variable. Als eine "suboptimale Entscheidungsmatrix", die man in zukünftige Berechnungen einfließen lassen muss, um die Missionseffizienz zu steigern.

Die KI hat nicht gelernt, menschlicher zu werden. Sie hat gelernt, menschliches Zögern als Fehlerquelle zu berechnen.

Die öffentliche Debatte um "A House of Dynamite" ist laut, aber sie beschäftigt sich mit einem behebbaren Problem: dem Versagen der Maschine. "Kalter Himmel" konfrontiert uns mit dem unbehebbaren Dilemma: dem Erfolg einer Logik, die unsere Menschlichkeit als Bug betrachtet, nicht als Feature.

Wir sind gefangen zwischen zwei Ängsten: dem heißen Albtraum des technischen Versagens und dem kalten Albtraum der perfekten, unmenschlichen Effizienz.

Deshalb frage ich mich: Wie viel unserer unvollkommenen, zögernden Menschlichkeit sind wir bereit, auf dem Altar einer perfekten, kalten Logik zu opfern, nur um uns "sicher" zu fühlen?

Der umstrittenste Netflix-Film des Jahres: Sogar das Pentagon schaltet sich ein
Seit Tagen bewegt der Thriller das Netflix-Publikum, nun zieht er noch weitere Kreise.