Inhalt
summary Zusammenfassung

RunwayMLs neues "Act-One"-Modell soll gängige Motion-Capture-Verfahren angreifen - und hat darüber hinausgehende Implikationen.

Anzeige

Traditionelle Methoden zur Gesichtsanimation erfordern oft komplexe, mehrstufige Arbeitsabläufe mit spezieller Motion-Capture-Ausrüstung, mehreren Referenzaufnahmen und manueller Nachbearbeitung. Act-One soll diesen Prozess stark vereinfachen, indem es die Performance eines Schauspielers direkt auf Basis von Video- und Sprachaufnahmen auf einen animierten Charakter überträgt.

Demo-Video für Act One. | Video: RunwayML

Laut RunwayML ist das Modell in der Lage, selbst feinste Details der Schauspielleistung zu erfassen und zu übertragen. Bemerkenswert ist, dass dafür laut Unternehmen bereits ein Smartphone ausreicht.

Anzeige
Anzeige

Vielseitige Anwendungsmöglichkeiten

RunwayML betont die Vielseitigkeit von Act-One. Das Modell lässt sich demnach auf eine Vielzahl von Referenzbildern anwenden und soll realistische Gesichtsausdrücke bewahren, selbst wenn die Proportionen des Zielcharakters von denen im ursprünglichen Quellvideo abweichen.

In einem Demovideo zeigt das Unternehmen, wie Act-One die Performance aus einem einzigen Eingabevideo auf  verschiedene Charakterdesigns und in unterschiedliche Stile übertragen kann. Dabei soll das Modell laut RunwayML filmische und realistische Ergebnisse produzieren und robust bei verschiedenen Kamerawinkeln und Brennweiten funktionieren.

Das naheliegende Anwendungsszenario ist die Übertragung menschlicher Mimik und Stimme auf animierte Charaktere, ähnlich wie bei klassischen Motion-Capture-Projekten für Spiele und Filme.

RunwayML stellt jedoch noch ein weiteres Szenario vor: die Übertragung der Schauspielleistung auf fotorealistische Avatare. In einer weiteren Demo zeigt das Unternehmen, wie ein einzelner Schauspieler in einer Szene zwei virtuelle Avatare spielen kann.

Video: RunwayML

Empfehlung
Schauspieler steuert mit seiner Mimik zwei KI-generierte Avatare: einen älteren Mann mit Hut und einen Mann mit Brille.
Ein Schauspieler spielt beide Avatare. | Bild: RunwayML

"Sie können jetzt narrative Inhalte erstellen, indem Sie nichts weiter als eine handelsübliche Kamera und einen Schauspieler verwenden, der verschiedene Charaktere aus einem Skript liest und darstellt", erklärt RunwayML.

Der Zugang zu Act-One wird laut RunwayML ab sofort schrittweise für Nutzer freigeschaltet und soll bald allen zur Verfügung stehen.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • RunwayML stellt mit "Act-One" ein KI-Modell vor, das die Performance eines Schauspielers direkt auf animierte Charaktere übertragen kann. Dazu genügen Video- und Sprachaufnahmen, die auch mit einem Smartphone gemacht werden können.
  • Das Modell soll in der Lage sein, feinste Details der schauspielerischen Leistung zu erfassen und auf verschiedene Referenzbilder und Charakterdesigns zu übertragen. Dabei bleiben laut RunwayML realistische Gesichtsausdrücke erhalten, sogar wenn die Proportionen der Zielfigur abweichen.
  • Neben der Anwendung für animierte Charaktere demonstriert RunwayML auch die Übertragung auf fotorealistische Avatare. In einer Demo spielt ein Schauspieler zwei virtuelle Charaktere in einer Szene.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!