Jeder wisse, wie die KI-Apokalypse voraussichtlich aussehen werde, meint das Magazin Reason. Man kenne das schließlich aus Filmen wie «WarGames» und «The Terminator», wo ein superintelligenter Computer die Kontrolle über die Waffen übernimmt und versucht, die Menschheit zu vernichten.
Glücklicherweise sei dieses Szenario im Moment unwahrscheinlich. Die US-Atomraketen, die mit jahrzehntealter Technologie betrieben würden, müssten von einem Menschen mit einem physischen Schlüssel gestartet werden, erklärt das Magazin.
Aber die künstliche Intelligenz töte bereits jetzt Menschen auf der ganzen Welt – auf eher langweilige Weise. Laut Bloomberg, The Guardian und +972 Magazine nutzen das US-amerikanische und das israelische Militär KI-Systeme, um Informationen zu sichten und Luftangriffe zu planen, hebt Reason hervor.
Diese Art von Software ermögliche es den Befehlshabern, Ziele viel schneller zu finden und aufzulisten, als dies menschliche Mitarbeiter selbst könnten. Die Angriffe werden dann von menschlichen Piloten ausgeführt, entweder mit bemannten Flugzeugen oder ferngesteuerten Drohnen. Ein israelischer Geheimdienstoffizier habe laut The Guardian gesagt:
«Die Maschine hat das ganz kalt gemacht. Und das machte es einfacher».
Darüber hinaus würden türkische, russische und ukrainische Waffenhersteller behaupten, «autonome» Drohnen gebaut zu haben, fährt Reason fort. Diese könnten Ziele auch dann angreifen, wenn die Verbindung zum entfernten Piloten verloren ginge. Experten seien jedoch skeptisch, ob diese Drohnen wirklich autonom getötet hätten.
Im Krieg wie im Frieden sei die KI ein Werkzeug, das den Menschen die Möglichkeit gebe, effizienter zu tun, was sie wollten. Menschliche Führer würden Entscheidungen über Krieg und Frieden auf dieselbe Weise treffen, wie sie es schon immer getan hätten. Auf absehbare Zeit werde für die meisten Waffen ein Kämpfer aus Fleisch und Blut erforderlich sein, um einen Abzug zu betätigen oder einen Knopf zu drücken.
Die künstliche Intelligenz ermögliche es jedoch den Menschen in der Mitte – Offizieren und Geheimdienstanalysten in fensterlosen Räumen –, ihre Feinde mit weniger Aufwand, weniger Zeit und weniger Nachdenken zum Tode zu verurteilen, resümiert das Magazin. Lucy Suchman, eine pensionierte Professorin für Anthropologie und Mitglied des Internationalen Komitees für Roboterwaffenkontrolle habe dazu angemerkt:
«Das Terminator-Image des Killerroboters verdeckt, dass datengesteuerte Kriegsführung und andere Bereiche der datengesteuerten Polizeiarbeit, Profilerstellung, Grenzkontrolle usw. bereits ernsthafte Bedrohungen darstellen».
Suchman meine, es sei am hilfreichsten, KI als eine «Stereotypisierungsmaschine» zu verstehen, die auf älteren Überwachungsnetzwerken aufbaue. Durch die Verfügbarkeit enormer Datenmengen und Rechenleistung könnten diese Maschinen lernen, die Art von Mustern und Personen herauszufiltern, an denen die Regierungen interessiert sind. «Denken Sie eher an Minority Report als an The Terminator», empfehle sie.
Mehrere Menschenrechtsaktivisten setzten sich für ein Abkommen zum Verbot oder zur Regulierung autonomer Waffen ein, darunter Suchmans Komitee, erklärt Reason. Das beziehe auch die chinesische Regierung ein. Washington und Moskau zögerten zwar, sich einer internationalen Kontrolle zu unterwerfen, hätten aber interne Beschränkungen für KI-Waffen eingeführt.
Derselbe Impuls, der die Entwicklung der KI-Kriegsführung vorangetrieben habe, scheine auch die Begrenzung der KI-Kriegsführung voranzutreiben: das Streben der menschlichen Führer nach Kontrolle. Militärische Befehlshaber «wollen sehr sorgfältig steuern, wie viel Gewalt man anwendet», wird der Politikwissenschaftler Zachary Kallenborn zitiert. Der Grund sei, dass «man dies letztlich nur tut, um größere politische Ziele zu unterstützen».
Kommentare