Inhalt
summary Zusammenfassung

Forscher haben eine neue KI-Methode entwickelt, mit der sich täuschend echte Bewegtbilder zu beliebigen Audioaufnahmen erzeugen lassen. Das könnte die Flut an Fake-Videos im Netz weiter verstärken.

Anzeige

Die Methode funktioniert in drei Schritten und nutzt dabei einen sogenannten "Bewegungsgraphen", der mögliche Übergänge zwischen verschiedenen Körperhaltungen repräsentiert.

Im ersten Schritt werden Referenzvideos einer Person analysiert, um daraus den Bewegungsgraphen zu erstellen. Anschließend wählt das System passende Bewegungssequenzen zu einer Ziel-Audioaufnahme aus. Im letzten Schritt generiert ein KI-Modell fehlende Übergangsbilder, um einen flüssigen Bewegungsablauf zu erzeugen.

Eine Besonderheit von TANGO ist laut den Forschern die Verwendung eines hierarchischen Audio-Bewegungs-Embeddings. Dieses ermögliche es, sowohl kurzfristige als auch längerfristige Zusammenhänge zwischen Sprache und Gestik zu erfassen. Dadurch sollen die generierten Bewegungen besser zur Audioeingabe passen als bei früheren Methoden.

Anzeige
Anzeige

Den Entwicklern zufolge erzielte TANGO in Tests bessere Ergebnisse als bestehende generative und retrieval-basierte Verfahren. Sowohl bei objektiven Metriken als auch in Nutzerstudien habe das System die Vergleichsmethoden übertroffen.

Dreistufiges Diagramm: TANGO-Pipeline zur Gestenvideogenerierung mit Bewegungsgraph, audiobasierter Pfadauswahl und Interpolation.
TANGO generiert Gestenvideo in drei Schritten: Erstellung eines Bewegungsgraphen, audiobasierte Pfadauswahl und Interpolation diskontinuierlicher Übergänge. Diese Methode ermöglicht die Synthese realistischer Gestenvideosegmente passend zu Audioeingaben. | Bild: Liu et al.

TANGO könnte ein vielversprechender Ansatz sein, um beispielsweise in der Filmproduktion oder für virtuelle Avatare realistisch wirkende Bewegtbilder zu erzeugen. Gleichzeitig könnte die Technologie auch missbraucht werden, um Deepfakes zu erstellen.

Fake-Videos sind nicht mehr aufzuhalten

Angesichts der zunehmenden Einfachheit, mit der sich heute überzeugende Fake-Videos generieren lassen, wird es für Nutzer immer schwieriger, die Echtheit von Online-Inhalten zu überprüfen.

Entsprechend dürften vertrauenswürdige und verifizierte Quellen an Bedeutung gewinnen, anstatt zu versuchen, jedes einzelne Video auf seine Authentizität hin zu überprüfen. Die schiere Menge an potenziellen Fälschungen macht es nahezu unmöglich, alle Fakes zu entlarven.

TANGO verdeutlicht einmal mehr, wie ausgereift die Technologien zur Erstellung synthetischer Medieninhalte mittlerweile sind. Nutzer sollten daher besonders kritisch sein, wenn sie auf vermeintlich authentisches Videomaterial im Internet stoßen - insbesondere wenn die Quelle nicht verifiziert ist.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Empfehlung
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Forscher haben eine KI-Methode namens TANGO entwickelt, die täuschend echte Bewegtbilder zu beliebigen Audioaufnahmen erzeugen kann.
  • TANGO nutzt einen "Bewegungsgraphen" und funktioniert in drei Schritten: Analyse von Referenzvideos, Auswahl passender Bewegungssequenzen und Generierung fehlender Übergangsbilder.
  • Die Technologie könnte in der Filmproduktion oder für virtuelle Avatare eingesetzt werden, birgt aber auch das Risiko des Missbrauchs für Deepfakes. Angesichts der zunehmenden Einfachheit, überzeugende Fake-Videos zu erstellen, wird es für Nutzer immer schwieriger, die Echtheit von Online-Inhalten zu überprüfen.
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!