Comedian und Podcaster Joe Rogan musste schon für einige Deepfakes herhalten. Nun baut ein KI-Startup sein Gesicht und seine Stimme nach - um vor Deepfakes zu warnen.
Im Mai zeigte das KI-Startup Dessa die Stimmklon-KI "RealTalk": Sie kopierte die Stimme des Comedian, Podcasters und UFC-Kommentators Joe Rogan so genau, dass sie vom Original nicht mehr zu unterscheiden war.
Damals verkündete das Startup, man wolle mit dem Stimmklon auf die Möglichkeiten der Deepfake-Technologien aufmerksam machen und so Regierungen und Gesetzgeber dazu drängen, Gegenmaßnahmen zu entwickeln.
Da das offenbar nicht ausreichend gefruchtet hat, geht Dessa nun einen Schritt weiter: In einem neuen Video zeigt das Startup, dass es mit Deepfake-Technologie sowohl das Gesicht als auch die Stimme Rogans kopieren und zu einer Fälschung zusammenführen kann. Die ist nicht perfekt, zeigt aber das Potenzial, das in der Technologie steckt.
Im Video verkündet der Deepfake-Rogan das Ende seines erfolgreichen Podcasts. Zwischendurch schaltet Dessa die Fake-Technologien ab und gibt den Blick auf den Schauspieler frei. Das Video entstand im Rahmen des New York Times Dokumentarclips "Fake Believe".
Mit Künstlicher Intelligenz gegen Deepfakes
Ergänzend zum Video veröffentlicht Dessa eine KI, die Deepfakes erkennt. Die Software soll aktuelle und ältere Deepfakes mit einer Genauigkeit von etwas über 80 Prozent identifizieren. Für das Training der Anti-Deepfake-KI verwendete Dessa Googles Deepfake-Datensatz "FaceForensics++" sowie 120 Youtube-Videos, von denen die Hälfte Deepfakes waren.
Das zusätzliche YouTube-Training sei notwendig gewesen, da allein mit Googles Datensatz die Genauigkeit der Deepfake-Detektor-KI nur bei knapp 50 Prozent gelegen habe. In einem kurzen Deepfake-Video stuft die mit dem FaceForensics-Datensatz trainierte KI sogar 68 Prozent der Bilder als echt ein – obwohl alle gefälscht sind.
Erst nach dem zusätzlichen Training mit Dessas YouTube-Datensatz stieg die Genauigkeit der Deepfake-Erkennung auf mehr als 80 Prozent. Für Dessa ist das ein Zeichen, dass Deepfake-Detektoren immer wieder mit den neuesten Deepfakes trainiert werden müssen, um diese zuverlässig zu erkennen. Googles FaceForensics-Datensatz wäre nach dieser Argumentation schon wieder veraltet, obwohl er erst im September erschien.
Wenn es nach Bildbearbeitungsprofi Hao Li geht, ist der Kampf gegen Deepfakes aussichtslos: In zwei bis drei Jahren sollen die Fake-Videos nicht mehr als solche identifiziert werden können, da sie so real aussehen, dass sie Detektoren keinen Verdachtsmoment mehr liefern.