Inhalt
summary Zusammenfassung

In einem Interview mit Marques Brownlee erklärt das Sora-Team, dass Sora nicht "in absehbarer Zeit" veröffentlicht wird. Die aktuelle Version sei noch ein Forschungsprojekt.

"Wir haben noch keinen Zeitplan, wann Sora ein Produkt wird. Wir wollen Feedback für die weitere Forschung erhalten", sagt OpenAI-Forschungsleiter Tim Brooks.

Vor allem die Darstellung von Händen sowie komplexe physikalische Vorgänge und Bewegungen stellten das Modell noch vor Herausforderungen.

Ein erstes Feedback sei, dass die Nutzer mehr Kontrolle über die Videogenerierung wollen als nur über den Text-Prompt. "Das werden wir uns auf jeden Fall ansehen", sagt Brooks. Das Hinzufügen von Audio stehe nicht direkt auf dem Entwicklungsplan, sei aber eine Option.

Anzeige
Anzeige

Fotorealistische, glaubwürdige KI-Videos sind möglich

Das Team hält es perspektivisch für möglich, Videos zu generieren, die von echten Videos nicht mehr zu unterscheiden sind. Um KI-Fake-Videos einzudämmen, will OpenAI den für OpenAIs Bild-KI DALL-E 3 vorgestellten Klassifikator für Sora anpassen, sagt Sora-Teamleiter Aditya Ramesh. Der Bild-Klassifikator kann zuverlässig erkennen, ob ein Bild mit DALL-E 3 erstellt wurde.

Wie lange es dauert, ein Video mit Sora zu erstellen, hänge von verschiedenen Faktoren ab. Es könne eine Weile dauern, sodass man in der Zwischenzeit einen Kaffee trinken gehen könne.

Die Forscher weisen auch auf die potenziell revolutionäre Rolle von Sora für die Kreativwirtschaft hin: Durch die Senkung der Produktionskosten könnten innovative Inhalte ermöglicht werden, die bisher aufgrund finanzieller Hürden nicht realisierbar waren. Sora sei ein Beispiel dafür, wie KI-Tools völlig neue kreative Ausdrucksformen ermöglichen könnten, die weit über die Imitation bestehender Medien hinausgingen.

 

Eines der Hauptziele von OpenAI mit Sora sei es, dass Modelle wie Sora die Welt besser verstehen, indem sie aus visuellen Daten lernen. OpenAI sieht in Sora den ersten Schritt zur Modellierung der Realität.

Empfehlung

Ein nächster Schritt könnte die Entwicklung von Modellen sein, die auf dem visuellen Verständnis von Sora aufbauen und ein Weltverständnis haben. Metas KI-Chef Yann LeCun hält diesen Ansatz für grundfalsch.

Sora wurde mit einer Kombination aus öffentlich verfügbaren und von OpenAI lizenzierten Daten trainiert. Das Modell kombiniert Techniken aus diffusionsbasierten Modellen und Large Language Models (LLMs).

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Das Sora-Team von OpenAI erklärt in einem Interview, dass das KI-Video-Modell nicht "in absehbarer Zeit" veröffentlicht werden wird. Es sei noch ein Forschungsprojekt und das Team wolle zunächst nur Feedback sammeln.
  • Basierend auf den ersten Rückmeldungen plant das Team, den Nutzern mehr Kontrolle über die Videogenerierung zu geben. Audio ist eine Option, aber nicht konkret geplant. Das Team glaubt, dass es perspektivisch möglich sein wird, fotorealistische und glaubwürdige KI-Videos zu generieren.
  • Das Sora-Team sieht das aktuelle Modell als einen ersten Schritt in Richtung Realitätsmodellierung und betont die potenziell revolutionäre Rolle von KI-Tools für die Kreativwirtschaft, indem sie Produktionskosten senken und neue kreative Ausdrucksformen ermöglichen.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!