Angebliche KI-Agenten-Zivilisation "Moltbook" ist nur aufgeblähter Bot-Traffic
Auf der gehypten KI-Agenten-Plattform Moltbook interagieren Millionen von KI-Agenten ohne menschliche Beteiligung. Eine Studie zeigt: Die Agenten posten, kommentieren und voten – lernen aber nicht voneinander. Hohle Interaktion ohne gegenseitigen Einfluss, ohne Gedächtnis, ohne soziale Strukturen.
Auch die neue Generation großer Sprachmodelle (LLMs) ab GPT-5 hat nach wie vor Probleme, wenn Aufgaben über mehrere Gesprächsrunden verteilt werden. Forscher Philippe Laban und sein Team testeten aktuelle Modelle in sechs Aufgaben: Code, Datenbanken, Aktionen, Daten-zu-Text, Mathematik und Zusammenfassungen. Ergebnis: Die Leistung sinkt deutlich, wenn Informationen über mehrere Nachrichten verteilt (sharded) statt in einer einzigen Anfrage (concat) gegeben werden.
Neuere Modelle schneiden zwar etwas besser ab – sie verlieren im Schnitt 33 statt zuvor 39 Prozent ihrer Leistung –, doch das Problem bleibt bestehen. Verbesserungen zeigten sich primär bei Python-Programmieraufgaben, wo einige Modelle nur noch 10 bis 20 Prozent Leistung einbüßten. Die Tests nutzten einfache, unkomplizierte Nutzersimulationen. Laban vermutet, dass der Verlust noch größer ausfallen könnte, wenn Nutzer etwa mitten im Gespräch ihre Meinung ändern.
OpenAI beweist Doppelmoral: Sam Altmans früherer Mitstreiter ist nun ein Dystopist
Angst erzeugt Aufmerksamkeit, und OpenAI weiß diesen Effekt regelmäßig zu nutzen. Doch vor Gericht will das Unternehmen einen KI-Experten als Untergangspropheten diskreditieren, dessen KI-Warnungen der eigene CEO Sam Altman jahrelang selbst verbreitet hat, als sie noch der eigenen Sache dienten.
OpenAI hat der kanadischen Regierung in einem Schreiben an KI-Minister Evan Solomon zugesagt, seine Sicherheitsprotokolle zu verschärfen. Anlass ist eine tödliche Schießerei an einer Schule in Tumbler Ridge, British Columbia, bei der acht Menschen starben. Der Verdächtige, Jesse Van Rootselaar, hatte zuvor mit ChatGPT interagiert. OpenAI-Angestellte stuften die Interaktionen als mögliche Warnung vor realer Gewalt ein. Das Unternehmen sperrte das Konto, informierte aber nicht die Polizei.
Laut Wall Street Journal will OpenAI nun flexiblere Kriterien für die Weitergabe von Kontodaten an Behörden einführen, direkte Kontakte zur kanadischen Polizei aufbauen und seine Systeme zur Umgehungserkennung verbessern. OpenAI-Vizepräsidentin Ann O'Leary sagte, man hätte das Konto nach den neuen Regeln gemeldet. Kanadas Justizminister Sean Fraser drohte mit neuen KI-Regulierungen, sollte OpenAI nicht schnell handeln.
KI-Daten: Aktuelles Sprachmodell-Training verschenkt große Teile des Internets
Große Sprachmodelle lernen aus Webdaten. Doch welche Seiten im Trainingsdatensatz landen, hängt stark vom HTML-Extraktor ab. Forscher bei Apple, Stanford und der University of Washington zeigen, dass drei gängige Werkzeuge überraschend unterschiedliche Teile des Webs erschließen: Nur 39 Prozent der Seiten überleben bei mehr als einem Extraktor.
Anthropic will das US-Verteidigungsministerium verklagen. Kriegsminister Pete Hegseth will das KI-Unternehmen als Lieferkettenrisiko einstufen, eine Maßnahme, die bisher nur gegen ausländische Gegner der USA eingesetzt wurde. Laut Anthropic ist diese Einordnung gegen das Gesetz, und man werde jede Anschuldigung vor Gericht anfechten.
Wir glauben, dass diese Einstufung sowohl rechtlich unhaltbar ist als auch einen gefährlichen Präzedenzfall für jedes amerikanische Unternehmen schaffen würde, das mit der Regierung verhandelt.
Anthropic
Hegseth hatte zudem gesagt, dass auch Militärzulieferer keine Geschäfte mehr mit Anthropic machen dürften. Laut Anthropic fehlt ihm dafür die gesetzliche Grundlage: Die Einstufung nach 10 USC 3252 betreffe nur die Nutzung von Claude in direkten Aufträgen des Kriegsministeriums. Für Privatkunden, kommerzielle Verträge und den Zugang über API oder claude.ai ändere sich nichts.
Auslöser des Konflikts ist ein gescheiterter Verhandlungsprozess: Anthropic weigert sich, Claude für massenhafte Inlandsüberwachung und vollautonome Waffen freizugeben. Heutige KI-Modelle seien dafür zu unzuverlässig, Massenüberwachung verletze Grundrechte. OpenAI hat den Deal übernommen.
Nach Anthropic-Bann: OpenAI macht KI-Deal mit dem Pentagon
OpenAI hat eine Vereinbarung mit dem Pentagon getroffen, nur Stunden nachdem Anthropic von Regierungsaufträgen ausgeschlossen wurde. Angeblich agiert OpenAI dabei nach denselben Sicherheitsprinzipien wie Anthropic. Dennoch muss es Unterschiede geben, die aus den bisherigen Ankündigungen nicht eindeutig hervorgehen.