Inhalt
summary Zusammenfassung

Runway Gen-2 ist eines der ersten kommerziellen KI-Modelle, das kurze Videos aus Text oder Bildern generieren kann. Wir zeigen, was Runway Gen-2 kann und wie man es benutzt.

Was Midjourney für die Generation von KI-Bildern ist, ist Runway für KI-Videos: das technisch am weitesten Fortgeschrittene, was der Markt derzeit hergibt. Gen-1 unterstützte Video-zu-Video-Veränderungen, Gen-2 bietet seit März die Generierung neuer Videos aus Text, Text mit Bild oder nur Bild. Zuletzt hat Runway Anfang Juli Gen-2 umfangreich aktualisiert.

In diesem Artikel sammeln wir die schönsten Beispiele, die das Potenzial der KI-Video-Generation demonstrieren und erklären, wie man mit der Cloud-Software loslegt.

Runway Gen-2 nutzen: So geht’s

Das Start-up hat Runway Gen-2 im März vorgestellt und im Juni eingeführt. Derzeit ist die Software im Browser und als iOS-App für Smartphones verfügbar. Kostenlos stellt Runway 125 Credits pro Monat zur Verfügung. Ein Credit entspricht einer generierten Videosekunde.

Anzeige
Anzeige
Bild: Screenshot/THE DECODER

Damit können Videosequenzen (wie auch in den kostenpflichtigen Tarifen) mit einer Länge von bis zu vier Sekunden erstellt werden. Für die kostenlose Nutzung ist keine Kreditkarte erforderlich.

Um die wertvollen Credits nicht für Ergebnisse zu verschwenden, die in eine ganz andere Richtung gehen als geplant, gibt es neben dem "Generate"-Button einen weiteren für eine "Preview". Nach wenigen Augenblicken zeigt Runway vier Einzelbilder, wie die KI den Prompt interpretieren könnte.

Aus diesen kann dann eines ausgewählt und zu einem viersekündigen Clip verarbeitet werden. Je nach Serverauslastung ist das Video in wenigen Sekunden bis Minuten fertig und wird automatisch gespeichert, so dass es später aus der eigenen Bibliothek heruntergeladen werden kann.

Die MP4-Videos sind nach dem Download gut 1 Megabyte groß und haben eine vergleichsweise geringe Auflösung von 896 x 512 Pixeln im weit verbreiteten 16:9-Format.

Runway Gen-2: Die besten Beispiele

Die Bilder sind synthetisch, aber der Ton ist real und wird in einem eigenen Arbeitsschritt hinzugefügt: Mit der richtigen akustischen Untermalung lassen sich unsere Augen besser täuschen, so dass die KI-Videos manchmal erst auf den zweiten Blick als solche zu erkennen sind.

Empfehlung

Wie würde sich ein realistisches Pikachu bewegen? Runway Gen-2 kann das visualisieren, wenn man dem System ein entsprechendes Ausgangsbild gibt. Dieses realistische Pikachu, das mit Midjourney generiert wurde, animiert Gen-2 in einem viersekündigen Video.

Der Twitter-Nutzer:in @I_need_moneyy hat Midjourney als Ausgangspunkt für zahlreiche mit Gen-2 generierte Clips verwendet und stellt Bild und Video nebeneinander. Dabei werden viele verschiedene Stile gezeigt, von Fotorealismus über Zeichentrick bis zu Szenen, die selbst in Hollywood nur mit CGI möglich wären.

Auch Javi Lopez zeigt das Foto und die dynamische KI-Animation nebeneinander. Leider lässt er offen, ob er neben dem Bild auch einen Textprompt eingefügt hat.

Min Choi zeigt, dass es vor allem auf den Schnitt und die Musik ankommt, um KI-Clips richtig in Szene zu setzen. Er hat mit Gen-2 ein kurzes Musikvideo produziert, das eine Geschichte mit verschiedenen Szenen erzählt.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Wie genau die Betreiber:innen des YouTube-Kanals Curious Refuge den Trailer zum Film-Crossover des Jahres aus "Barbie" und "Oppenheimer" erstellt haben, verraten sie nur in ihrem 499 US-Dollar teuren Bootcamp. Auch sie versuchen, aus den vier Sekunden durch geschickte Schnitte und eine spezifische Anordnung ein kohärentes Werk zu schaffen.

Javi Lopez kombinierte die folgenden Tools, um eine übernatürliche KI-Filmszene zu erstellen: Midjourney für das Bild, Runway Gen-2 für das Video, Elevenlabs für die KI-Stimme und TikToks kostenlosen Videoeditor CapCut für den Schnitt und die Partikeleffekte.

Tipps und Beobachtungen aus der Runway-Community zu Gen-2

Auf Twitter teilen viele Nutzer:innen ihre Erfahrungen mit Gen-2, zum Beispiel Mia Blume. Hier haben wir die interessantesten Beobachtungen und Tipps zur Nutzung von Runway Gen-2 zusammengestellt.

  • Runway Gen-2 neigt dazu, in einem gemischten Prompt den Text höher zu gewichten als das Bild. Es gibt (derzeit) keine Möglichkeit, diese Gewichtung zu ändern.
  • So wie es für Bildmodelle lange Zeit eine große Herausforderung war, realistische Hände zu erzeugen, kämpft Runway Gen-2 mit realistischen Laufanimationen.
  • Gen-2 hat ein Problem damit, Videos aus Illustrationen zu generieren. Fotorealistische Grundlagen funktionieren besser.
  • Die maximal vier Sekunden, die eine von Gen-2 generierte Sequenz derzeit dauert, sind eine starke Einschränkung, können aber auch die Kreativität anregen.
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Runway Gen-2 verwandelt Text- und Bildprompts in KI-Videos von bis zu vier Sekunden Länge.
  • Die geringe Länge ist immer noch eine starke Einschränkung, zwingt aber auch zu kreativen Ansätzen beim Storytelling.
  • Im obigen Artikel haben wir einige Beispiele für KI-Videos zusammengestellt, die mit Gen-2 erstellt wurden.
Jonathan ist Technikjournalist und beschäftigt sich stark mit Consumer Electronics. Er erklärt seinen Mitmenschen, wie KI bereits heute nutzbar ist und wie sie im Alltag unterstützen kann.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!