Autoren HubMatthias Bastian
Microsofts neues Sprachmodell MAI-Voice-1 ist nun in Copilot Labs verfügbar und erzeugt KI-Stimmen, die laut Microsoft-AI-Chef Mustafa Suleyman nicht nur sprechen, sondern "performen". Nutzer können zwischen drei Modi wählen: Emotive Mode für ausdrucksstarke Wiedergabe mit freier Textinterpretation, Story Mode für Geschichten mit mehreren Stimmen und Scripted Mode für wortgetreue Wiedergabe.
Video: Microsoft
Das Tool bietet verschiedene Stimmen und Stile – von Shakespeare bis Sportkommentar – und ist über Copilot Labs abrufbar. Microsoft hat mit MAI-1 kürzlich sein erstes großes Sprachmodell vorgestellt.
Google hat sein KI-Tool NotebookLM um neue Berichtsfunktionen erweitert. Nutzer können jetzt strukturierte, professionell geschriebene Reports in über 80 Sprachen erstellen. Die Berichte lassen sich per Vorgabe von Ton, Stil und Aufbau anpassen.
Video: Google
Neu ist auch ein Blogpost-Format sowie dynamische Empfehlungen für passende Berichtstypen je nach hochgeladenen Quellen, etwa Whitepaper bei Forschungsdokumenten. Zudem können Nutzer eigene Prompts mit bis zu 1000 Wörtern definieren, um maßgeschneiderte Inhalte zu erzeugen.
Anthropic unterstützt den kalifornischen Gesetzesentwurf SB 53, der große Entwickler leistungsstarker KI-Systeme zu mehr Transparenz und Sicherheit verpflichtet – offenbar, weil Washington zu langsam ist. Anthropic sieht in SB 53 eine sinnvolle Grundlage für bundesweite Regeln.
Auch wenn wir glauben, dass die Sicherheit bei fortgeschrittener KI am besten auf Bundesebene und nicht durch ein Flickwerk einzelstaatlicher Regelungen behandelt wird, werden mächtige KI-Fortschritte nicht auf einen Konsens in Washington warten.
Unter diesem Gesetz müssen betroffene Firmen Sicherheitskonzepte veröffentlichen, Risikoanalysen offenlegen, sicherheitsrelevante Vorfälle binnen 15 Tagen melden, interne Bewertungen vertraulich weitergeben, klare Whistleblower-Schutzregeln beachten und bei Verstößen können sie mit Geldstrafen belangt werden. Die Vorschriften gelten nur für Unternehmen mit sehr leistungsfähigen Modellen und sollen kleinere Anbieter entlasten. Die Entscheidung für diese Unterstützung folgt laut Anthropic nach sorgfältiger Abwägung der Lehren aus dem gescheiterten Vorstoß SB 1047.
OpenAI-CEO Sam Altman ist aufgefallen, dass es "wahrscheinlich tatsächlich viele LLM-betriebene Twitter-Accounts gibt". Keine Pointe.

Die Dead-Internet-Theorie ist eine Verschwörungstheorie, die besagt, dass das Internet nicht mehr von echten Menschen, sondern hauptsächlich von Bots und KI-generierten Inhalten dominiert wird. Demnach sind die meisten Online-Aktivitäten (Kommentare, Posts, Artikel) Fälschungen, die dazu dienen, die öffentliche Meinung zu manipulieren und Nutzer zu kontrollieren.
"Es ist eine der tiefgreifendsten Illusionen unserer Zeit, dass die meisten Menschen diesen Dingen [großen Sprachmodellen] Verständnis zuschreiben, das sie gar nicht haben", sagt LLM-Hype-Kritiker Gary Marcus im Gespräch mit Schachgroßmeister Garry Kasparov.
Er führt ein Beispiel auf: "Sie können die Regeln des Schachspiels wiedergeben, weil sie Texte erzeugen, die auf anderen Texten basieren. Aber wenn es darum geht, das Spiel tatsächlich zu spielen, fehlt ihnen ein internes Modell davon, was vor sich geht."
Für Marcus ist diese Diskrepanz zwischen performativer Kompetenz und fehlendem semantischen Verständnis der Kern der aktuellen KI-Verblendung. Die vermeintliche Intelligenz großer Sprachmodelle sei lediglich eine statistisch fundierte Imitation – eine "Illusion von Intelligenz", erzeugt durch extreme Datenmengen und Musterabgleich.