KI in der Praxis

Pika Labs veröffentlicht Version 1.0 seines KI-Videogenerators

Maximilian Schreiner

Pika Labs

Pika Labs, ein KI-Startup, das sich auf generative KI für Video spezialisiert hat, hat Version 1.0 seines Videogenerators vorgestellt und eine erfolgreiche Finanzierungsrunde bekannt gegeben.

Pika 1.0 nutzt laut Pika Labs ein neues KI-Modell, das Videos in verschiedenen Stilen wie 3D-Animation, Anime, Cartoon und Film erzeugen und bearbeiten kann. Das Start-up hatte den Pika-Videogenerator bereits in früheren Versionen über Discord getestet.

Pika 1.0 soll die Videoproduktion für Nutzer zugänglicher und einfacher machen. Das neue KI-Modell kann Videos ähnlich wie Midjourney, DALL-E 3 oder Stable Diffusion es für Bilder in verschiedenen Stilen generieren und bearbeiten.

Video: Pika Labs

Nutzer können sich unter https://pika.art auf die Warteliste für Pika 1.0 setzen lassen.

Pika Labs sichert sich 55 Millionen US-Dollar

Pika Labs hat außerdem 55 Millionen Dollar in Pre-Seed- und Seed-Runden unter der Leitung von Nat Friedman und Daniel Gross sowie in einer Series-A-Runde unter der Leitung von Lightspeed Venture Partners eingesammelt. Zu den weiteren Investoren gehören Adam D'Angelo (Gründer und CEO von Quora), Andrej Karpathy, Clem Delangue (Mitbegründer und CEO von Hugging Face und Partner bei Factorial Capital) und Craig Kallman (CEO von Atlantic Records).

Erst im September wurde ein Update veröffentlicht, das die Integration von Buchstaben und Bildern wie Logos in Videos über Pika ermöglicht. Damit können beispielsweise Firmenlogos in Videos integriert werden.

Stable Video Diffusion erlaubt lokale Videogenerierung

Der Markt für generative KI-Modelle für Videos wächst damit weiter, neben Pika setzt unter anderem Runway auf KI-Unterstützung bei der Videobearbeitung. Auch Stability AI, das Unternehmen hinter Stable Diffusion, hat kürzlich sein erstes generatives Videomodell veröffentlicht.

Stable Video Diffusion konnte dabei die kommerziellen Konkurrenten RunwayML und Pika Labs in Nutzerpräferenzstudien übertreffen. Das Modell wurde in zwei Bild-zu-Video-Formaten veröffentlicht, die 14 oder 25 Bilder mit einstellbaren Bildraten zwischen 3 und 30 Bildern pro Sekunde erzeugen können und auf dem Bildmodell Stable Diffusion basieren. Mit diesem Update könnte Pika Labs wieder die Nase vorn haben.

Wer mit KI-Videos experimentieren möchte, kann dies auch mit dem Stable Diffusion Tool "ComfyUI" tun. ComfyUI hat kürzlich ein Update mit Unterstützung für Stable Video Diffusion hinzugefügt, mit dem das Modell selbst auf Grafikkarten wie der Nvidia GTX 1080 und der AMD 6800 XT läuft.

Quellen: