Skip to content
Read full article about: Meta startet KI-Video-Feed "Vibes" und will wohl Googles Gemini-Modelle nutzen

Meta hat mit "Vibes" einen neuen Feed für kurzformatige, KI-generierte Videos in der Meta-AI-App gestartet. Nutzer können eigene Clips erstellen, vorhandene Videos remixen oder einfach durch den Feed scrollen. In der frühen Version arbeitet Meta mit Midjourney und Black Forest Labs zusammen, während eigene Modelle noch in Entwicklung sind.

Video: Meta

Und Meta will wohl noch an einer anderen Stelle die KI-Modelle des Wettbewerbs nutzen: Angeblich laufen Gespräche mit Google, um feingetunte Gemini-Modelle für bessere Werbeausspielung einzusetzen. Das zeigt auch den aktuellen Zustand von Metas eigenen KI-Modell-Ambitionen.

Read full article about: Selbst Disney hat angeblich nicht genug Trainingsdaten für ein gutes Videomodell

Lionsgates KI-Partnerschaft mit dem Start-up Runway kommt langsamer voran als geplant. Ursprünglich wollte das Studio seine Filmbibliothek nutzen, um mit Runway ein eigenes KI-Modell zu trainieren und damit Filme zu produzieren. Doch laut TheWrap reichen die Daten nicht aus – selbst Disneys Katalog sei dafür zu klein, so ein Insider.

Bild: via The Wrap

Diese Aussage bricht mit einem Mythos der Branche: Selbst die größten Hollywood-Studios verfügen trotz jahrzehntelanger Produktion offenbar nicht über ausreichend vielfältiges, großvolumiges und lizenziertes Videomaterial, um eigenständig ein hochperformantes KI-Videomodell zu trainieren.

Auch rechtliche Fragen, etwa zu Bildrechten von Schauspielern, bremsen das Projekt. Lionsgate betont, man verfolge weiter KI-Projekte mit mehreren Anbietern. Runway äußerte sich gegenüber The Wrap nicht.

Read full article about: Alibaba veröffentlicht leistungsfähiges Open Source Sprach-Vision-Modell Qwen3-VL

Alibaba hat mit Qwen3-VL ein neues Open-Source-Modell veröffentlicht, das Sprache und Bild kombiniert. Die stärkste Version, Qwen3-VL-235B-A22B, kommt in zwei Varianten: "Instruct" schlägt laut Alibaba Googles Gemini 2.5 Pro bei wichtigen Vision-Tests, "Thinking" erzielt laut eigenen Angaben Bestwerte bei multimodalen Denkaufgaben. Das Modell kann grafische Oberflächen verstehen und bedienen, Code aus Screenshots generieren, bis zu zweistündige Videos analysieren und Texte in 32 Sprachen erkennen – auch bei schlechter Bildqualität. Es unterstützt räumliches Verständnis in 2D und 3D und bietet laut Hersteller starke Leistungen in Mathematik und Naturwissenschaften.

Video: Demo für agentische Bildverarbeitung durch Qwen3_VL

Qwen3-VL ist über Hugging Face, ModelScope und die Alibaba Cloud verfügbar. Ein öffentlicher Chat-Zugang besteht unter chat.qwen.ai.

Read full article about: Microsoft plant angeblich KI-Vergütungsplattform für ausgewählte Verlage

Microsoft plant laut Axios ein Pilotprojekt für einen "Publisher Content Marketplace" (PCM). Ziel sei eine Plattform, auf der Verlage ihre Inhalte an KI-Produkte wie Microsoft Copilot verkaufen können. Microsoft stellte das Vorhaben letzte Woche auf einem Partnertreffen in Monaco ausgewählten US-Verlagen vor. Eine Folie mit dem Satz "You deserve to be paid on the quality of your IP" sorgte dort angeblich für Aufmerksamkeit. Der Marktplatz soll später auch weiteren Partnern offenstehen und langfristig andere KI-Produkte als Käufer einbinden. Ein Starttermin für das PCM-Pilotprojekt steht bisher nicht fest.

Bisher zahlen große KI-Firmen meist pauschale Lizenzgebühren statt einer nutzungsbasierten Vergütung. Microsoft arbeitet bereits mit Partnern wie Reuters und Axel Springer für Copilot zusammen. Auch OpenAI und andere KI-Firmen zahlen wenigen ausgewählten Verlagen Lizenzgebühren, die der Journalismusforscher Jeff Jarvis als Schweigegeld bezeichnete.