Anzeige
Short

Anthropic unterstützt den kalifornischen Gesetzesentwurf SB 53, der große Entwickler leistungsstarker KI-Systeme zu mehr Transparenz und Sicherheit verpflichtet – offenbar, weil Washington zu langsam ist. Anthropic sieht in SB 53 eine sinnvolle Grundlage für bundesweite Regeln.

Auch wenn wir glauben, dass die Sicherheit bei fortgeschrittener KI am besten auf Bundesebene und nicht durch ein Flickwerk einzelstaatlicher Regelungen behandelt wird, werden mächtige KI-Fortschritte nicht auf einen Konsens in Washington warten.

Unter diesem Gesetz müssen betroffene Firmen Sicherheitskonzepte veröffentlichen, Risikoanalysen offenlegen, sicherheitsrelevante Vorfälle binnen 15 Tagen melden, interne Bewertungen vertraulich weitergeben, klare Whistleblower-Schutzregeln beachten und bei Verstößen können sie mit Geldstrafen belangt werden. Die Vorschriften gelten nur für Unternehmen mit sehr leistungsfähigen Modellen und sollen kleinere Anbieter entlasten. Die Entscheidung für diese Unterstützung folgt laut Anthropic nach sorgfältiger Abwägung der Lehren aus dem gescheiterten Vorstoß SB 1047.

Short

OpenAI-CEO Sam Altman ist aufgefallen, dass es "wahrscheinlich tatsächlich viele LLM-betriebene Twitter-Accounts gibt". Keine Pointe.

Bild: Altman via X

Die Dead-Internet-Theorie ist eine Verschwörungstheorie, die besagt, dass das Internet nicht mehr von echten Menschen, sondern hauptsächlich von Bots und KI-generierten Inhalten dominiert wird. Demnach sind die meisten Online-Aktivitäten (Kommentare, Posts, Artikel) Fälschungen, die dazu dienen, die öffentliche Meinung zu manipulieren und Nutzer zu kontrollieren.

Short

"Es ist eine der tiefgreifendsten Illusionen unserer Zeit, dass die meisten Menschen diesen Dingen [großen Sprachmodellen] Verständnis zuschreiben, das sie gar nicht haben", sagt LLM-Hype-Kritiker Gary Marcus im Gespräch mit Schachgroßmeister Garry Kasparov.

Er führt ein Beispiel auf: "Sie können die Regeln des Schachspiels wiedergeben, weil sie Texte erzeugen, die auf anderen Texten basieren. Aber wenn es darum geht, das Spiel tatsächlich zu spielen, fehlt ihnen ein internes Modell davon, was vor sich geht."

Für Marcus ist diese Diskrepanz zwischen performativer Kompetenz und fehlendem semantischen Verständnis der Kern der aktuellen KI-Verblendung. Die vermeintliche Intelligenz großer Sprachmodelle sei lediglich eine statistisch fundierte Imitation – eine "Illusion von Intelligenz", erzeugt durch extreme Datenmengen und Musterabgleich.

Anzeige
Anzeige
Short

Alibaba hat mit Qwen3-Max-Preview ein neues Sprachmodell mit erstmals mehr als einer Billion Parametern vorgestellt. Es ist über Qwen-Chat und die Alibaba-Cloud-API nutzbar. Laut Alibaba übertrifft das Modell den bisherigen Spitzenreiter Qwen3-235B-A22B-2507 in internen Tests und bei ersten Nutzern. Die Verbesserungen zeigen sich demnach bei Wissen, Konversationen, Aufgabenbearbeitung und Befolgung von Anweisungen. Auch Modellwissen-bedingte Halluzinationen seien reduziert. Eine finale Version ist laut Alibaba in Planung.

Bild: Qwen

Der maximale Input beträgt 258.048 Tokens, der maximale Output liegt bei 32.768 Tokens. Die Preise sind gestaffelt: bis zu $2,151 pro Million Eingangstokens und bis zu $8,602 pro Million Ausgangstokens. Das Modell unterstützt keine Bildverarbeitung.

Short

Apple wird in Kalifornien von den US-Autor:innen Grady Hendrix und Jennifer Roberson wegen Urheberrechtsverletzung verklagt. Die Klage wirft Apple vor, Bücher ohne Zustimmung genutzt zu haben, um KI-Modelle wie OpenELM und Apple Intelligence zu trainieren. Konkret soll Apple das als Raubkopie bekannte Books3-Datenset verwendet haben, das über 196.000 Bücher enthält – darunter die Werke der Kläger. Apple soll zudem Webseiten über Applebot kopiert und Inhalte aus sogenannten Schattenbibliotheken bezogen haben.

Die Kläger fordern Schadenersatz und ein Verbot der Nutzung ihrer Werke. Die Sammelklage folgt ähnlichen Vorwürfen gegen andere KI-Firmen wie Anthropic, die sich außergerichtlich mit den Klägern geeinigt hat, da die Autoren gute Aussichten hatten, den Rechtsstreit zu gewinnen.

Anzeige
Anzeige
Anzeige
Anzeige
Short

OpenAI übernimmt das Analyse-Startup Statsig und ernennt dessen Gründer Vijaye Raji zum CTO für Anwendungen. Raji berichtet künftig an Fidji Simo und wird die technische Leitung für ChatGPT und Codex übernehmen.

Statsig, spezialisiert auf A/B-Tests und Feature-Management, soll OpenAIs Entwicklungsprozesse beschleunigen. Die Plattform wurde bereits intern genutzt und soll nun vollständig integriert werden. Statsig bleibt zunächst als eigene Einheit mit Sitz in Seattle bestehen. Alle Mitarbeiter wechseln zu OpenAI. Die Übernahmesumme liegt laut Bloomberg bei 1,1 Milliarden US-Dollar.

Google News