Inhalt
newsletter Newsletter

KI-Forscher stellen eine Analyse-KI vor, die gefälschte Gesichter in Videos verlässlich entlarvt - und anschließend die letzten Bildfehler ausmerzt.

Anzeige

Welche der Standaufnahmen in der Titelbild-Montage sind real - und welche nur gefälscht? Die Chance ist hoch, dass das kein Mensch erkennt. Die Antwort steht im letzten Satz des Artikels.

Dass solche Video-Fälschungen immer leichter zu produzieren sind und gleichzeitig überzeugender wirken, könnte zu einem gesellschaftlichen Problem werden. Gefälschte Promi-Pornos deuten das an oder Fake-Videos von Politikern, denen jedes Wort in den Mund gelegt wird.

Fake-Videos verlässlich als solche zu entlarven, könnte daher sehr wichtig werden. Eine Forschungsgruppe der TU München sowie der Universitäten Erlangen-Nürnberg und Neapel Federico II stellen die Analyse-KI "XceptionNet" vor, die das - zumindest für den Moment - leisten kann.

Anzeige
Anzeige

Kompression schützt die Fälschung

Umso stärker ein Video komprimiert ist, desto weniger verlässlich ist die Pixel-basierte Auswertung einer Analyse-KI. Bei umkomprimierten und leicht komprimierten Videos erkennt XceptionNet so gut wie jedes Fake-Video verlässlich.

Wenn ein Video stark komprimiert ist, kann es schlechter als Fälschung entlarvt werden. Grafik: TUM / Rössler
Wenn ein Video stark komprimiert ist, kann es schlechter als Fälschung entlarvt werden. Grafik: TUM / Rössler

Bei stark komprimierten Videos - wie man sie häufig in Social Media vorfindet - werden immerhin fast 88 Prozent der Fälschungen entlarvt. Gerade hier schneidet XceptionNet etwas besser ab als vergleichbare Ansätze aus 2016 und 2017.

Analyseverfahren im Vergleich. No-c meint unkomprimierte Videos, hard-c-Videos sind stark komprimiert. Grafik: TUM / Rössler
Analyseverfahren im Vergleich. No-c meint unkomprimierte Videos, hard-c-Videos sind stark komprimiert. Grafik: TUM / Rössler

Die Basis für diesen Fortschritt bildet ein eigens geschaffener Datensatz, mit dem XceptionNet trainiert wurde. Der Datensatz enthält über 500.000 Standaufnahmen aus 1.004 Videos. Laut den Forschern übertrifft diese Sammlung an manipulierten Aufnahmen bisherige vergleichbare Datensätze deutlich.

Erkannte Bildfehler können ausgebessert werden

Eine Besonderheit von XceptionNet ist es, dass die Analyse-KI Bildfehler in manipulierten Videos nicht nur erkennen, sondern in einem zweiten Schritt auch ausbessern kann. Die Fälschungen sind dann - zumindest für das menschliche Auge - im Grunde nicht mehr von realen Aufnahmen zu unterscheiden.

XceptionNet selbst ist von den optimierten Fakes allerdings weitgehend unbeeindruckt und erkennt sie fast so verlässlich, wie die ursprünglichen Fälschungen.

Empfehlung
Ein optimiertes Fake-Video wird fast so verlässlich erkannt wie die ursprüngliche Fälschung. Grafik: TUM / Rössler
Ein optimiertes Fake-Video wird fast so verlässlich erkannt wie die ursprüngliche Fälschung. Grafik: TUM / Rössler

Dass sich die KI so selbst auf die Probe stellt und diese besteht, ist wichtig. Womöglich kann so ein Wettrennen zwischen Fälschern und Detektoren vermieden werden.

Weitere Informationen stehen auf der offiziellen Projektseite. Im Titelbild ist immer das obere Standbild real.

Weiterlesen über KI-Fake-Medien:

| Via: Technology Review

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!