Die Idee, Künstliche Intelligenz zur Erkennung und vielleicht sogar Zensur von gefälschten Videos im Internet einzusetzen, hat im letzten Jahr an Bedeutung gewonnen. Doch wie verlässlich sind solche Systeme?
Wie die BBC berichtet, hat Intel ein neues System namens «FakeCatcher» vorgestellt, das im Kampf gegen gefälschte Videos eingesetzt werden soll – und angeblich zwischen echten und mit KI-Tools hergestellten Videos unterscheiden kann.
Intel nutzt die physiologische Eigenschaft der Photoplethysmographie, die Veränderungen der Blutzirkulation aufzeigt und Augenbewegungen verfolgt, um Fälschungen zu identifizieren und zu entlarven.
Der Prozess zur Bestimmung der Echtheit der Inhalte basiere auf der Grundlage menschlicher Massstäbe, wie den Veränderungen des Blutflusses einer Person und der Konsistenz der Augenbewegungen, informierte die Wissenschaftlerin Ilke Demir, die dem Forschungsteam von Intel Labs angehört. Diese natürlichen menschlichen Merkmale seien in echten Videos erkennbar, aber nicht in Videos, die mit Hilfe von KI-Tools erstellt wurden.
Das Unternehmen gibt an, die Genauigkeit von «FakeCatcher» liege bei 96 Prozent. Die BBC testete die Wirksamkeit des Systems anhand von echten und manipulierten Clips des ehemaligen US-Präsidenten Donald Trump und des derzeitigen Präsidenten Joe Biden. Diese Tests zeigten jedoch, dass die Technologie möglicherweise nicht so narrensicher ist, wie Intel behauptet.
Zwar erkannte das System effizient lippensynchrone Fälschungen und versagte nur in einem von mehreren Fällen. Doch die Erfolgsquote veränderte sich, als das System mit echten Videos konfrontiert wurde. Fälschlicherweise wurden einige dieser Videos als unecht eingestuft.
Der Grund: Bei verpixelten oder qualitativ minderwertigen Videos sei die Erkennung von Blutflusssignalen im Gesicht deutlich eingeschränkt. Ausserdem führe «FakeCatcher» keine Audioanalyse durch, wodurch authentisches Audiomaterial als Fälschung eingestuft werden könnte, so die BBC.
Kommentare