Inhalt
newsletter Newsletter

Nvidia stellt ein KI-Modell vor, das bisher typische Artefakte in Deepfake-Videos vermeidet und die KI-Videotechnik so auf eine neue Stufe hebt.

KI-Systeme für die Bildgenerierung haben in den letzten Jahren große Fortschritte erzielt. Nvidias StyleGAN generiert etwa Gesichter, die kaum noch von echten zu unterscheiden sind. Die dafür eingesetzten GANs (Generative Adversarial Network) kommen auch für Deepfakes zum Einsatz.

Die nächste Entwicklung sollen laut Nvidia-Forschern GAN-basierte Systeme sein, die ihre Kreationen nachträglich weiter bearbeiten können, etwa einen künstlichen Kopf in eine andere Position drehen oder lächeln lassen.

StyleGAN sollte das eigentlich bereits beherrschen, doch in der Praxis kommt es zu seltsamen Artefakten: Texturen auf der Nase kleben wie fixiert an Ort und Stelle, während sich das Gesicht dreht oder Haare wabern surreal auf dem Kopf. Das bricht die Illusion eines zusammenhängenden Gesichts, das sich durch den Raum bewegt.

Anzeige
Anzeige

Alias-Effekt verhindert glaubwürdige Videos

Nun haben die Nvidia-Forscher die Ursache gefunden: Die Position feiner Details wie Hautporen wird nicht von gröberen Details wie der Position der Nase bestimmt. In StyleGAN sind die feinen Details stattdessen auf bestimmte Pixelkoordinaten fixiert. Das liege an Alias-Effekten, die beim Hochskalieren des generierten Bilds innerhalb des GANs auftreten, schreiben die Forscher.

Video: Links ist StyleGAN2 zu sehen, rechts das neue Netz. Besonders am linken Bart wird deutlich, wie sich die feinen Details an Pixelkoordinaten orientieren statt an der tatsächlichen Position im Gesicht. Im rechten Video ist dieser Effekt beseitigt.

Im Alias-Free GAN hat Nvidia nun diesen Effekt unter anderem mit einem stärkeren Alias-Filter entfernt. Das Ergebnis ist ein KI-System, das qualitativ hochwertige Bilder generiert und feine Details wie Poren auch bei Bewegungen konsistent an ihrer natürlichen Position wie der Nase hält.

Weitere Verbesserungen an GANs möglich

Laut der Nvidia-Forscher sind die Verbesserungen lediglich im Generator des GANs vorgenommen worden. Weitere Veränderungen seien wohl im Diskriminator des Netzes möglich. Das könne übrig gebliebene Artefakte wie Fehler in den Zähnen verhindern, vermuten die Forscher. Doch auch ohne diese Verbesserungen lege Alias-Free GAN die Grundlage für generative Systeme, die besser für Videos und Animationen geeignet seien.

Die Entfernung charakteristischer Artefakte aus KI-generierten Videos mache diese jedoch auch schwerer als manipuliert erkennbar, warnen die Forscher. Sie schlagen vom KI-Modell eingefügte Wasserzeichen und weitreichende Authentizitätsprüfungen auf Social-Media-Plattformen als mögliche Lösungen vor. Unter anderem arbeitet Facebook an Deepfake-Erkennungssystemen.

Empfehlung

Ein vortrainiertes KI-Modell und weitere Details zu Alias-Free GAN sollen im September auf GitHub veröffentlicht werden.

Quelle: Nvidia | Titelbild: Nvidia

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Weiterlesen über KI-generierte Inhalte:

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!