Skip to content

Pika Labs veröffentlicht Version 1.0 seines KI-Videogenerators

Image description
Pika Labs

Kurz & Knapp

  • KI-Start-up Pika Labs hat die Version 1.0 seines Videogenerators vorgestellt, mit dem Videos in verschiedenen Stilen wie 3D-Animation, Anime, Zeichentrick und Film erstellt und bearbeitet werden können.
  • Pika Labs hat zudem 55 Mio. USD von Investoren wie Nat Friedman, Daniel Gross, Adam D'Angelo und Lightspeed Venture Partners erhalten.
  • Nutzer können sich jetzt auf eine Warteliste für Pika 1.0 setzen lassen

Pika Labs, ein KI-Startup, das sich auf generative KI für Video spezialisiert hat, hat Version 1.0 seines Videogenerators vorgestellt und eine erfolgreiche Finanzierungsrunde bekannt gegeben.

Pika 1.0 nutzt laut Pika Labs ein neues KI-Modell, das Videos in verschiedenen Stilen wie 3D-Animation, Anime, Cartoon und Film erzeugen und bearbeiten kann. Das Start-up hatte den Pika-Videogenerator bereits in früheren Versionen über Discord getestet.

Pika 1.0 soll die Videoproduktion für Nutzer zugänglicher und einfacher machen. Das neue KI-Modell kann Videos ähnlich wie Midjourney, DALL-E 3 oder Stable Diffusion es für Bilder in verschiedenen Stilen generieren und bearbeiten.

Video: Pika Labs

Nutzer können sich unter https://pika.art auf die Warteliste für Pika 1.0 setzen lassen.

Pika Labs sichert sich 55 Millionen US-Dollar

Pika Labs hat außerdem 55 Millionen Dollar in Pre-Seed- und Seed-Runden unter der Leitung von Nat Friedman und Daniel Gross sowie in einer Series-A-Runde unter der Leitung von Lightspeed Venture Partners eingesammelt. Zu den weiteren Investoren gehören Adam D'Angelo (Gründer und CEO von Quora), Andrej Karpathy, Clem Delangue (Mitbegründer und CEO von Hugging Face und Partner bei Factorial Capital) und Craig Kallman (CEO von Atlantic Records).

Erst im September wurde ein Update veröffentlicht, das die Integration von Buchstaben und Bildern wie Logos in Videos über Pika ermöglicht. Damit können beispielsweise Firmenlogos in Videos integriert werden.

Stable Video Diffusion erlaubt lokale Videogenerierung

Der Markt für generative KI-Modelle für Videos wächst damit weiter, neben Pika setzt unter anderem Runway auf KI-Unterstützung bei der Videobearbeitung. Auch Stability AI, das Unternehmen hinter Stable Diffusion, hat kürzlich sein erstes generatives Videomodell veröffentlicht.

Stable Video Diffusion konnte dabei die kommerziellen Konkurrenten RunwayML und Pika Labs in Nutzerpräferenzstudien übertreffen. Das Modell wurde in zwei Bild-zu-Video-Formaten veröffentlicht, die 14 oder 25 Bilder mit einstellbaren Bildraten zwischen 3 und 30 Bildern pro Sekunde erzeugen können und auf dem Bildmodell Stable Diffusion basieren. Mit diesem Update könnte Pika Labs wieder die Nase vorn haben.

Wer mit KI-Videos experimentieren möchte, kann dies auch mit dem Stable Diffusion Tool "ComfyUI" tun. ComfyUI hat kürzlich ein Update mit Unterstützung für Stable Video Diffusion hinzugefügt, mit dem das Modell selbst auf Grafikkarten wie der Nvidia GTX 1080 und der AMD 6800 XT läuft.

Quelle: Pika

KI-News ohne Hype
Von Menschen kuratiert.

  • Mehr als 20 Prozent Launch-Rabatt.
  • Lesen ohne Ablenkung – keine Google-Werbebanner.
  • Zugang zum Kommentarsystem und Austausch mit der Community.
  • Wöchentlicher KI-Newsletter.
  • 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
  • Bis zu 25 % Rabatt auf KI Pro Online-Events.
  • Zugang zum kompletten Archiv der letzten zehn Jahre.
  • Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.
The Decoder abonnieren