Skip to content

Runway MLs neuer Motion Slider macht KI-Video-Animationen flexibler

Image description
Runway

Kurz & Knapp

  • Runway ML Gen-2, eine erweiterte Text- und Bild-zu-Video-Vorlage, wurde um eine Standbild-Animationsfunktion erweitert, mit der der Grad der Bewegung auf einer Skala von 1 bis 10 eingestellt werden kann.
  • Das "Creative Partners Program" bietet ausgewählten Künstlern und Kreativen exklusiven Zugang zu neuen Runway-Tools und Vorlagen, unbegrenzte Pläne, 1 Million Credits und frühzeitigen Zugang zu neuen Funktionen.
  • Alternativen zu Runway Gen-2 sind das Open-Source-Modell Zeroscope und das relativ neue Pika Labs, das in einer Betaversion getestet werden kann und wie Gen-2 Text- und Bildprompts unterstützt.

Es gibt eine neue Animationsfunktion für Runway ML Gen-2, das derzeit ausgereifteste Text- und Bild-zu-Video-Modell.

Ein Feature von Gen-2 ist die Standbild-Animation, bei der das Bild automatisch mit passendem Inhalt erweitert wird. Mit dem neuen "Motion Slider" ist es nun möglich, den Grad der Bewegung auf einer Skala von 1 bis 10 einzustellen. 1 bedeutet fast keine Bewegung, 10 bedeutet starke Bewegung.

Video: Twitter

Runway hat zudem das "Creative Partners Program" eingeführt. Das Programm bietet ausgewählten Gruppen von Künstlern und Kreativen exklusiven Zugang zu neuen Runway-Tools und -Modellen, unbegrenzte Pläne, 1 Million Credits, frühzeitigen Zugang zu neuen Funktionen und vieles mehr.

Runway Gen-2 gewinnt an Umfang und Qualität

Runways Gen-2-Modell startete im März und erhielt Anfang Juli ein großes Qualitäts-Update. Das Modell kann Kurzvideos aus Text-, Bild- oder gemischten Prompts generieren, die mittlerweile eine Länge von bis zu 18 Sekunden haben können. Zum Start waren nur vier Sekunden möglich. Auch das zeigt die schnellen Fortschritte bei Video-KIs der letzten Monate, die aber noch ein gutes Stück von fehlerfreien Aufnahmen entfernt sind.

Runway Gen-2 ist im Web und als iPhone-App verfügbar. Wer das System testen will, bekommt gegen eine Anmeldung monatlich kostenlos einige Credits gutgeschrieben. Eine Übersicht über besonders gelungenen Runway Gen-2-Generierungen gibt es hier.

Mögliche Alternativen sind das Open-Source-Modell Zeroscope, das lokal auf handelsüblichen Grafikkarten ausgeführt werden kann und Text-Prompts zu kurzen Videos verarbeitet, und das relativ neue Pika Labs, das in einer Beta-Fassung via Discord getestet werden kann und wie Gen-2 neben Text- auch Bild-Prompts unterstützt.

Kürzlich zeigte ein Nutzer, wie er mit Midjourney, der Animationsfunktion von Pika Labs und einem Schnittprogramm im Alleingang das Intro von Twin Peaks im Pixar-Stil nachstellte.

Source: Twitter

Verpassen Sie keine
aktuellen KI‑Einblicke.

  • Unabhängiger Journalismus, der Sie auf dem Laufenden hält.
  • Zugang zum Magazinarchiv und zu den Community‑Kommentaren.
  • Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.
The Decoder abonnieren