Inhalt
summary Zusammenfassung

Das neue Text-zu-Video-Modell von OpenAI, Sora, wird wohl noch einige Zeit in der Entwicklung sein.

Anzeige

Laut Bloomberg hat OpenAI noch keinen genauen Zeitplan für die Veröffentlichung festgelegt. Dafür gibt es zwei Gründe: Zum einen will OpenAI angesichts der zahlreichen Wahlen in diesem Jahr keine Sicherheitsrisiken eingehen. Der andere Grund ist schlicht, dass das Modell technisch bis jetzt nicht reif für eine Veröffentlichung ist.

Schon bei der Vorstellung von Sora hatte OpenAI auf Mängel beim physikalischen Verständnis des Modells und bei der Konsistenz hingewiesen.

Auch bei Tests von Bloomberg, die von OpenAI zwei Prompts generieren lassen konnten, traten visuelle Fehler auf. Im folgenden Video etwa verwandelt sich der Papagei am Ende in einen Affen.

Anzeige
Anzeige

Prompt: "An overhead view of a parrot flying through a verdant Costa Rica jungle, then landing on a tree branch to eat a piece of fruit with a group of monkeys. Golden hour, 35mm film." | Video: Rachel Metz via X

"Sora ist immer noch ein Forschungsprojekt, zu dem nur sehr wenige Leute Zugang haben, und bei unserer privaten Demonstration mit OpenAI gab es klare Grenzen für das Tool", schreibt Bloomberg.

Auffällig ist auch, dass Bloomberg OpenAI vier Prompts gab, OpenAI aber nur zwei Videos generierte. Als Grund nannte das Unternehmen zeitliche Beschränkungen der Forscher. Das deutet darauf hin, dass der Generierungsprozess noch recht langwierig oder nicht ausgereift ist.

Snack-Pause während Videogenerierung

Was die Generierungszeit betrifft, lässt sich OpenAI noch nicht in die Karten schauen. Sora benötigt aber definitiv mehr Zeit als gängige Bildgeneratoren. Derzeit könne man sich bequem einen Snack holen, während man auf das fertige Video wartet, sagt OpenAI-Forscher Bill Peebles.

Er räumt auch die Generierungsfehler von Sora ein, spricht aber dennoch von einem "deutlichen Sprung" in der KI-Videogenerierung, insbesondere in Bezug auf die Komplexität der Szenen.

Empfehlung

Sora befindet sich derzeit in der Red-Teaming-Phase und ausgewählte Künstler, Filmemacher und Designer haben Zugang zum System erhalten. Das gab OpenAI bei der Vorstellung des Modells bekannt.

Betrachtet man den OpenAIs Modell-Rollout-Plan, scheint es sich um die Phase "Evaluation & Iterative Development" zu handeln. Der nächste Schritt wäre dann eine gestaffelte Rollout-Phase mit privaten Betas, Use-Case-Piloten und weiteren Sicherheitstests.

Bild: OpenAI

Aufmerksam auf das Projekt wurde auch der amerikanische Filmemacher Tyler Perry, der nach eigenen Angaben einen 800 Millionen Dollar teuren Ausbau seines Studios stoppte, nachdem er die Sora-Demos gesehen hatte. Perry geht davon aus, dass er in Zukunft viele Filmszenen einfach aus Text generieren kann.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Das Text-to-Video-Modell Sora von OpenAI befindet sich noch in der Entwicklung und hat keinen festen Zeitplan für die Veröffentlichung. Das Modell ist technisch noch nicht ausgereift und OpenAI möchte die Sicherheitsrisiken aufgrund der zahlreichen Wahlen in diesem Jahr minimieren.
  • Sora hat Mängel im physikalischen Verständnis und in der Konsistenz, und der Generierungsprozess ist noch langsam. Dennoch spricht der OpenAI-Forscher Bill Peebles von einem "bedeutenden Sprung" in der Videogenerierung.
  • Das Modell befindet sich derzeit in der "Evaluation & Iterative Development"-Phase, in der ausgewählte Künstler, Filmemacher und Designer Zugang zum System erhalten haben; der nächste Schritt wäre eine gestaffelte Rollout-Phase mit privaten Betas, Use-Case-Piloten und weiteren Sicherheitstests.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!