Forscher haben eine neue KI-Methode entwickelt, mit der sich täuschend echte Bewegtbilder zu beliebigen Audioaufnahmen erzeugen lassen. Das könnte die Flut an Fake-Videos im Netz weiter verstärken.
Die Methode funktioniert in drei Schritten und nutzt dabei einen sogenannten "Bewegungsgraphen", der mögliche Übergänge zwischen verschiedenen Körperhaltungen repräsentiert.
Im ersten Schritt werden Referenzvideos einer Person analysiert, um daraus den Bewegungsgraphen zu erstellen. Anschließend wählt das System passende Bewegungssequenzen zu einer Ziel-Audioaufnahme aus. Im letzten Schritt generiert ein KI-Modell fehlende Übergangsbilder, um einen flüssigen Bewegungsablauf zu erzeugen.
Eine Besonderheit von TANGO ist laut den Forschern die Verwendung eines hierarchischen Audio-Bewegungs-Embeddings. Dieses ermögliche es, sowohl kurzfristige als auch längerfristige Zusammenhänge zwischen Sprache und Gestik zu erfassen. Dadurch sollen die generierten Bewegungen besser zur Audioeingabe passen als bei früheren Methoden.
Den Entwicklern zufolge erzielte TANGO in Tests bessere Ergebnisse als bestehende generative und retrieval-basierte Verfahren. Sowohl bei objektiven Metriken als auch in Nutzerstudien habe das System die Vergleichsmethoden übertroffen.
TANGO könnte ein vielversprechender Ansatz sein, um beispielsweise in der Filmproduktion oder für virtuelle Avatare realistisch wirkende Bewegtbilder zu erzeugen. Gleichzeitig könnte die Technologie auch missbraucht werden, um Deepfakes zu erstellen.
Fake-Videos sind nicht mehr aufzuhalten
Angesichts der zunehmenden Einfachheit, mit der sich heute überzeugende Fake-Videos generieren lassen, wird es für Nutzer immer schwieriger, die Echtheit von Online-Inhalten zu überprüfen.
Entsprechend dürften vertrauenswürdige und verifizierte Quellen an Bedeutung gewinnen, anstatt zu versuchen, jedes einzelne Video auf seine Authentizität hin zu überprüfen. Die schiere Menge an potenziellen Fälschungen macht es nahezu unmöglich, alle Fakes zu entlarven.
TANGO verdeutlicht einmal mehr, wie ausgereift die Technologien zur Erstellung synthetischer Medieninhalte mittlerweile sind. Nutzer sollten daher besonders kritisch sein, wenn sie auf vermeintlich authentisches Videomaterial im Internet stoßen - insbesondere wenn die Quelle nicht verifiziert ist.