Inhalt
newsletter Newsletter

Deepfakes könnten das Vertrauen in die Beweiskraft von Bildern und Videos nachhaltig untergraben. New Yorker Forscher schlagen eine Methode vor, die beim Fotografieren selbst ansetzt und Bilder mit einem KI-generierten Wasserzeichen versieht.

Anzeige

Forensiker und Spezialisten haben bewährte Methoden entwickelt, um manipulierte Bilder und Videos aufzudecken. Doch diese Strategien greifen nicht immer. Zudem können Nachbearbeitungen und Bildkompressionen die Fake-Indizien vernichten, sodass Manipulationen nicht mehr nachweisbar sind.

Forscher der NYU Tandon School of Engineering arbeiten deshalb an einer Art Antifälschungssiegel für Bildsensoren. Sie fanden heraus, dass man den Bildprozessor einer Kamera nutzen kann, um unverwischbare Wasserzeichen im Code der Bilder zu erstellen. Selbst gegen herkömmliche Nachbearbeitungen sollen die Siegel gefeit werden, da das Siegel in bestimmte Farbfrequenzen eingefügt wird. Die Bildqualität wird laut den Forschern nicht negativ beeinflusst.

Das Wasserzeichen selbst soll von einem künstlichen neuronalen Netz generiert werden. Forensische Bildanalysten könnten so im Nachhinein überprüfen, ob ein Bild manipuliert wurde. Eine interne Untersuchung habe ergeben, dass die Erkennungsrate mit der neuen Methode von circa 45 auf mehr als 90 stieg.

Anzeige
Anzeige

Ein Katz-und-Maus-Spiel

Die Forscher betonen, dass ihr Ansatz kein Universalheilmittel gegen Bildfälschungen ist und mit anderen, herkömmlichen Methoden kombiniert werden müsse. Die KI-generierten Siegel könnten außerdem von anderen eigens dafür trainierten neuronalen Netzwerken ausgehebelt werden. Der beteiligte NYU-Forscher Nasir Memon spricht gegenüber Wired von einem "Katz-und-Maus-Spiel".

Weitere Probleme sind, dass die Technologie noch nicht mit Videos funktioniert und dass Kamerahersteller erst einmal dazu gebracht werden müssen, den Schutzmechanismus in ihre Produkte einzubauen. Aber selbst dann könnten die Deepfakes und andere Bild- und Videomanipulationen nur von geschultem Personal aufgedeckt werden. Womöglich ist's dann schon zu spät, um negative Konsequenzen zu verhindern.

Die New Yorker Forscher wollen die Technologie Mitte Juni auf der CPVR-Konferenz vorstellen. In die Forschungsarbeit einlesen kann man sich hier.

Titelbild: BuzzFeedVideo (Screenshot bei Youtube), Quelle: Wired

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Mehr erfahren über Deepfakes:

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Tomislav schreibt über Künstliche Intelligenz im Kontext der XR, Kunst und virtueller Wesen: Wie trägt KI zur Entwicklung von VR und AR bei, wie rekonstruiert und erweitert sie das menschliche Kunstschaffen und welche neue Formen des Geschichtenerzählens und der NPC-Interaktion ermöglicht sie?
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!