Die Möglichkeiten, die künstliche Intelligenz (kurz KI, auf Englisch AI, was für Artificial Intelligence steht) bietet, scheinen schier grenzenlos – und die Euphorie für KI kennt bei so mancher Person ebenfalls keine Grenze.
So fordert Commerzbank-CEO Manfred Knof im Gespräch mit der Welt: «Wir müssen massiv in KI investieren.» Nur so könne der grosse Umbau der Wirtschaft und die grüne und digitale Transformation gelingen. Um sie voranzutreiben, brauche es «massive Investitionen».
Ein von Elon Musk unterstützter Forscher namens Roman V. Yampolskiy hingegen schlägt in Sachen KI die Alarmglocke. Nach seinen Recherchen gibt es keinen Beweis dafür, dass KI kontrolliert werden kann. Daher müsse diese Technologie umgehend auf Eis gelegt werden. Das berichtet Daily Mail.
Yampolskiy wurde von dem Multimilliardär finanziert, um fortschrittliche intelligente Systeme zu untersuchen, die im Mittelpunkt seines demnächst erscheinenden Buches «AI: Unexplainable, Unpredictable, Uncontrollable» stehen.
In seinem Buch untersucht der ausserordentliche Professor für Informatik an der Universität von Louisville, wie KI das Potenzial hat, die Gesellschaft dramatisch umzugestalten. Dies sei aber keineswegs immer zu unserem Vorteil, denn sie habe «das Potenzial, eine existenzielle Katastrophe zu verursachen».
Yampolskiy hat nach eigenem Bekunden die wissenschaftliche Literatur über KI untersucht und ist dann zu dem Schluss gekommen, dass es keinen Beweis dafür gebe, dass die Technologie davon abgehalten werden kann, «schurkisch» zu werden – eine Technologie, die dafür eingesetzt wird, Krebs zu erkennen, neue Medikamente zu entwickeln oder auch um Ziele auf dem Schlachtfeld ausfindig zu machen.
Um die KI vollständig zu kontrollieren, müsse sie veränderbar sowie ausgestattet mit Rückgängigmachungsoptionen, begrenzbar, transparent und in menschlicher Sprache leicht verständlich sein. Yampolskiy:
«Kein Wunder, dass viele sie für das wichtigste Problem halten, mit dem die Menschheit je konfrontiert war. Das Ergebnis könnte Wohlstand oder Aussterben sein, und das Schicksal des Universums steht auf dem Spiel.»
Yampolskiy-Unterstützer Musk hatte im Jahr 2023 selbst Alarm geschlagen in Bezug auf KI, als er und mehr als 33’000 Branchenexperten einen offenen Brief an das The Future of Life Institute unterzeichneten. Darin hiess es:
«[Die KI-Labore befinden sich derzeit] in einem unkontrollierten Wettlauf um die Entwicklung und den Einsatz immer leistungsfähigerer digitaler Intelligenz, die niemand – nicht einmal ihre Erfinder – verstehen, vorhersagen oder zuverlässig kontrollieren kann. Leistungsstarke KI-Systeme sollten erst dann entwickelt werden, wenn wir sicher sind, dass ihre Auswirkungen positiv und ihre Risiken überschaubar sind»
In diesem Zusammenhang habe Musk den Wunsch geäussert sicherzustellen, dass die KI und die Roboter seines Unternehmens von Menschen gesteuert werden könnten und dass der Tesla-Roboter «Optimus» so schwach gemacht werden müsse, dass er Menschen keinen Schaden zufügen könne. Musk:
«Wir stellen ihn so ein, dass er auf mechanischer und physischer Ebene so schwach ist, dass man vor ihm weglaufen und ihn höchstwahrscheinlich überwältigen kann.»
Dennoch kam es Ende 2023 zu dem tragischen Ereignis, dass ein Tesla-Roboter einen Ingenieur angriff und dies in einer «Blutspur» endete (wir berichteten).
Wie Daily Mail auch schreibt, hätten Experten vorausgesagt, dass die Technologie bis 2045 die Singularität erreichen wird. Das heisst, dass sie dann die menschliche Intelligenz übertreffen und die Fähigkeit besitzen wird, sich selbst zu reproduzieren, so dass sie möglicherweise nicht mehr kontrollierbar ist.
KI sei gewissermassen eine «Black Box». Und genau darin liege auch das Kernproblem, warum KI nicht kontrolliert werden könne, so Yampolskiy. Die Technologie könne lernen, sich anpassen und halbautonom handeln. Solche Fähigkeiten machten die Entscheidungsmöglichkeiten unendlich, und das bedeute, dass es eine unendliche Anzahl von Sicherheitsproblemen geben könne. Und da sich die Technik laufend anpasse, könne der Mensch Probleme möglicherweise nicht vorhersehen.
In diesem Zusammenhang macht Yampolskiy darauf aufmerksam, dass KI-Systeme bereits mit Entscheidungen in den Bereichen Gesundheitswesen, Investitionen, Beschäftigung, Bankwesen und Sicherheit betraut seien. Doch solche Systeme sollten in der Lage sein zu erklären, wie sie zu ihren Entscheidungen gekommen sind. Insbesondere, um zu zeigen, dass sie frei von Vorurteilen sind. Yampolskiy:
«Wenn wir uns daran gewöhnen, die Antworten der KI ohne Erklärung zu akzeptieren und sie im Grunde wie ein Orakelsystem zu behandeln, können wir nicht erkennen, ob sie beginnt, falsche oder manipulative Antworten zu geben.»
Yampolskiy wies zudem darauf hin, dass mit der zunehmenden Leistungsfähigkeit der KI auch ihre Autonomie zunehme, während unsere Kontrolle über sie abnehme – und eine grössere Autonomie sei gleichbedeutend mit einer geringeren Sicherheit.
Die Menschheit stehe vor der Wahl: Sollen wir wie Babys werden, für die man sorgt, ohne aber die Kontrolle über diese Technologie zu haben? Oder lehnen wir es ab, einen hilfreichen Beschützer zu haben und bleiben selbst verantwortlich und frei?
Wie unkontrollierbar KI-Systeme sein können, zeigte sich auch in den letzten Tagen. So hat ChatGPT begonnen, Unsinn zu reden und die Nutzer zu beunruhigen, indem es ihnen suggeriert, es sei mit ihnen im Raum. Die Macher des Programms haben erklärt, dass sie sich des Problems bewusst seien und die Situation beobachten würden (wir berichteten).
**********************
Unterstützen Sie uns mit einem individuellen Betrag oder einem Spenden-Abo. Damit leisten Sie einen wichtigen Beitrag für unsere journalistische Unabhängigkeit. Wir existieren als Medium nur dank Ihnen, liebe Leserinnen und Leser. Vielen Dank!
Oder kaufen Sie unser Jahrbuch 2023 (mehr Infos hier) mit unseren besten Texten im Webshop:
Kommentare