Anzeige
Anzeige
Anzeige
Short

Der Physiker David Deutsch verschiebt den AGI-Nachweis ins Narrativ: Allgemeine Intelligenz zeigt sich daran, dass Menschen eine eigene Geschichte haben.

„Wie wissen wir, dass Menschen allgemeine Intelligenzen sind? Indem wir ihre Geschichte erzählen. Menschliches Denken besteht nicht darin, mechanisch Motivationen in Handlungen zu überführen – Prompts in Output. Es geht vor allem darum, Motivationen zu wählen. So wie Wissenschaft nicht darin besteht, Theorien aus Daten zu extrahieren, sondern darin, ein Problem zu sehen, Erklärungen zu raten, sie zu kritisieren und zu testen.“

Wenn GPT-8 in einigen Jahren die Quantengravitation lösen könnte – und dabei begründen könnte, warum es dieses Problem gewählt hat und wie es zu seiner Lösung gekommen ist –, dann wäre auch Deutsch überzeugt, dass ein Sprachmodell AGI sein kann.

Anzeige
Anzeige
Short

Meta hat mit "Vibes" einen neuen Feed für kurzformatige, KI-generierte Videos in der Meta-AI-App gestartet. Nutzer können eigene Clips erstellen, vorhandene Videos remixen oder einfach durch den Feed scrollen. In der frühen Version arbeitet Meta mit Midjourney und Black Forest Labs zusammen, während eigene Modelle noch in Entwicklung sind.

Video: Meta

Und Meta will wohl noch an einer anderen Stelle die KI-Modelle des Wettbewerbs nutzen: Angeblich laufen Gespräche mit Google, um feingetunte Gemini-Modelle für bessere Werbeausspielung einzusetzen. Das zeigt auch den aktuellen Zustand von Metas eigenen KI-Modell-Ambitionen.

Short

Lionsgates KI-Partnerschaft mit dem Start-up Runway kommt langsamer voran als geplant. Ursprünglich wollte das Studio seine Filmbibliothek nutzen, um mit Runway ein eigenes KI-Modell zu trainieren und damit Filme zu produzieren. Doch laut TheWrap reichen die Daten nicht aus – selbst Disneys Katalog sei dafür zu klein, so ein Insider.

Bild: via The Wrap

Diese Aussage bricht mit einem Mythos der Branche: Selbst die größten Hollywood-Studios verfügen trotz jahrzehntelanger Produktion offenbar nicht über ausreichend vielfältiges, großvolumiges und lizenziertes Videomaterial, um eigenständig ein hochperformantes KI-Videomodell zu trainieren.

Auch rechtliche Fragen, etwa zu Bildrechten von Schauspielern, bremsen das Projekt. Lionsgate betont, man verfolge weiter KI-Projekte mit mehreren Anbietern. Runway äußerte sich gegenüber The Wrap nicht.

Anzeige
Anzeige
Short

Alibaba hat mit Qwen3-VL ein neues Open-Source-Modell veröffentlicht, das Sprache und Bild kombiniert. Die stärkste Version, Qwen3-VL-235B-A22B, kommt in zwei Varianten: "Instruct" schlägt laut Alibaba Googles Gemini 2.5 Pro bei wichtigen Vision-Tests, "Thinking" erzielt laut eigenen Angaben Bestwerte bei multimodalen Denkaufgaben. Das Modell kann grafische Oberflächen verstehen und bedienen, Code aus Screenshots generieren, bis zu zweistündige Videos analysieren und Texte in 32 Sprachen erkennen – auch bei schlechter Bildqualität. Es unterstützt räumliches Verständnis in 2D und 3D und bietet laut Hersteller starke Leistungen in Mathematik und Naturwissenschaften.

Video: Demo für agentische Bildverarbeitung durch Qwen3_VL

Qwen3-VL ist über Hugging Face, ModelScope und die Alibaba Cloud verfügbar. Ein öffentlicher Chat-Zugang besteht unter chat.qwen.ai.

Google News