Autoren HubMatthias Bastian
Sogenannte "Reasoning-Modelle" generieren deutlich mehr Wörter (Token), bevor sie antworten. Offene KI-Modelle benötigen dabei mitunter drei- bis viermal mehr Token als geschlossene Modelle wie Grok-4 oder OpenAI, zeigt eine Analyse von Nous Research. Besonders bei einfachen Wissensfragen produzieren offene Modelle unnötige Gedankenschritte, was trotz niedrigerer Tokenpreise zu höheren Gesamtkosten führen kann.

OpenAIs gpt-oss-120b zeige jedoch, dass auch Open-Source-Modelle mit sehr kurzen Denkpfaden effizient arbeiten können, insbesondere bei Mathematikaufgaben. Mistrals Magistral-Modelle hingegen fallen durch hohen Tokenverbrauch auf. Die Token-Effizienz hängt stark vom Aufgabentyp ab.

Google bietet an diesem Wochenende in der Gemini-App drei kostenlose Videogenerierungen mit dem KI-Video-Tool Veo 3 an. Veo erstellt kurze KI-Videos mit Ton und ist das derzeit realistischste Videomodell am Markt. Das Angebot endet am Montag, 26. August, um 7:00 Uhr MESZ. Zugriff gibt es unter gemini.google.com/veo.
A humorous 8-second short video portraying a community theater-style play about AI video generation overheating Google's AI chips. | Video: Veo 3 prompted by THE DECODER
Normalerweise ist das Tool nur über bezahlte Gemini-Konten ab 21,99 Euro / Monat oder die API nutzbar. Möglich ist, dass Google damit die Belastbarkeit vor einem größeren Start prüft. Laut Google wurden seit der Einführung viele Millionen Videos generiert, ein Aspekt, der in der kürzlich veröffentlichten KI-Energiebilanz des Unternehmens nicht auftaucht.
Elevenlabs hat ein neues Modell für Text-zu-Sprache veröffentlicht. Eleven v3 (alpha) ist ab sofort über die API verfügbar und bietet laut Unternehmen mehr Ausdrucksmöglichkeiten, Kontrolle und Unterstützung für über 70 Sprachen. Neu ist ein Dialogmodus mit beliebig vielen Sprechern sowie die Möglichkeit, mit Audiotags Emotionen und Stimme zu steuern.
Video: Elevenlabs
Die Nutzung der Eleven v3 (alpha) API ist mit einem kostenlosen Konto möglich, zusätzliche Funktionen können kostenpflichtig sein. Technische Details und Beispiele gibt es in der Dokumentation. Der Einstieg ist über eine kostenlose Anmeldung möglich.
Yann LeCun, Metas KI-Ikone und Leiter der Forschungseinheit FAIR, berichtet künftig an den 28-jährigen Alexandr Wang. Wang, Gründer von Scale AI, übernahm kürzlich die Leitung des neuen Meta Superintelligence Lab (MSL), das sich auf die Entwicklung von Superintelligenz konzentrieren soll.
Im Zuge der Umstrukturierung wird die bisherige AGI-Abteilung aufgelöst. LeCuns FAIR bleibt als Grundlagenforschungseinheit bestehen und soll neue Ideen entwickeln, die dann in größeren Modelltrainings umgesetzt werden.
Ergänzt wird FAIR durch drei weitere Bereiche: ein kleines Team für große Modelle (TBD Lab), ein Bereich für produktnahe Forschung sowie ein zentrales Team für technische Infrastruktur. Ziel sei eine enge Verzahnung aller Bereiche, um Forschung und Entwicklung bei Meta zu beschleunigen, heißt es in Wangs interner Memo.
OpenAI-CEO Sam Altman ist sehr damit beschäftigt, nach dem etwas verunglückten Start von GPT-5 das Narrativ rund um seine Firma wieder einzufangen. GPT-6 soll schneller erscheinen als frühere Versionen (Anm.: 2,5 Jahre von GPT-4 auf -5) und sich stärker an Nutzer anpassen – etwa durch ein besseres Gedächtnis, das Vorlieben, Gewohnheiten, Idologien und Tonfall merkt. Diese Funktion bezeichnet Altman als wichtigste Neuerung.
ChatGPT bleibe vorerst das wichtigste Produkt von OpenAI für Verbraucher. Zugleich sieht er Grenzen in der Weiterentwicklung: Die aktuellen KI-Modelle hätten das Potenzial im Bereich Chat bereits ausgeschöpft. "Sie werden nicht viel besser – vielleicht sogar schlechter", sagte Altman laut CNBC.
OpenAIs Wette über Chatbots hinaus sind agentische Systeme, die über lange Zeiträume komplexe Aufgaben abarbeiten können. Diese Systeme sind jedoch nicht unbedingt bessere Gesprächspartner – genau darauf dürfte Altman anspielen.