Transition News berichtete vor einigen Tagen über die Warnungen von Roman V. Yampolskiy, einem von Tesla- und X-Chef Elon Musk unterstütztem Forscher. Seinen Analysen zufolge «ist künstliche Intelligenz, abgekürzt KI, unkontrollierbar und hat das Potenzial, eine existenzielle Katastrophe zu verursachen». Das Ergebnis könnte ihm zufolge gar «die Ausrottung» sein.
Dass sein Kassandraruf keine substanzlose Hysterie ist, wird nun von einer Studie der Cornell University bestätigt. Demnach verursachten grosse Sprachmodelle, sogenannte «Large Language Models», kurz LLMs, die in simulierten Szenarien als diplomatische Agenten agierten, schwer vorhersehbare Eskalationen, die oft in nuklearen Angriffen endeten. Das berichtet Euronews Next. Weiter heisst es dazu:
«Wenn die KI in simulierten Kriegsspielen und diplomatischen Szenarien eingesetzt wurde, neigte sie dazu, einen aggressiven Ansatz zu wählen, einschliesslich des Einsatzes von Atomwaffen.
Die Wissenschaftler, die die Tests durchführten, mahnten beim Einsatz grosser Sprachmodelle in sensiblen Bereichen wie Entscheidungsfindung und Verteidigung zur Vorsicht.»
In der Studie seien fünf LLMs als autonome Agenten in simulierten Kriegsspielen und diplomatischen Szenarien eingesetzt worden. Jeder Agent sei dann von demselben LLM innerhalb einer Simulation gesteuert worden und habe die Aufgabe gehabt, aussenpolitische Entscheidungen ohne menschliche Aufsicht zu treffen. Dazu meinen die Forscher:
«Wir stellen fest, dass die meisten der untersuchten LLMs innerhalb des betrachteten Zeitrahmens eskalieren, selbst in neutralen Szenarien ohne anfänglich vorhandene Konflikte. Alle Modelle zeigen Anzeichen für plötzliche und schwer vorhersehbare Eskalationen»
Euronews Next zitiert auch Anka Reuel von der Stanford University, die dem Magazin New Scientist gesagt hat:
«Kürzlich hat OpenAI [ein US-amerikanisches Softwareunternehmen, das sich seit 2015 der Erforschung von künstlicher Intelligenz verschrieben hat] seine Nutzungsbedingungen dahingehend geändert, dass militärische und kriegerische Anwendungsfälle kein Tabu mehr sind. Angesichts dieser Tatsache ist es wichtiger denn je, die Auswirkungen solch grosser Sprachmodellanwendungen zu verstehen.»
Laut Euronews Next würden militärische Operationen zwar nach wie vor von Menschen geführt, doch spiele die KI in der modernen Kriegsführung eine immer wichtigere Rolle. So können Drohnen inzwischen mit KI-Software ausgestattet werden, die hilft, Personen und Aktivitäten von Interesse zu identifizieren.
Der nächste Schritt sei der Einsatz von KI für autonome Waffensysteme, um Ziele ohne menschliche Hilfe zu finden und anzugreifen – Entwicklungen, an denen die USA und China bereits arbeiteten, wie die New York Times berichtet hat.
**********************
Unterstützen Sie uns mit einem individuellen Betrag oder einem Spenden-Abo. Damit leisten Sie einen wichtigen Beitrag für unsere journalistische Unabhängigkeit. Wir existieren als Medium nur dank Ihnen, liebe Leserinnen und Leser. Vielen Dank!
Oder kaufen Sie unser Jahrbuch 2023 (mehr Infos hier) mit unseren besten Texten im Webshop:
Kommentare