Das ERGO Innovation Lab hat gemeinsam mit ECODYNAMICS eine Studie zur Sichtbarkeit von Versicherungsinhalten in KI-Suchsystemen veröffentlicht. Ausgewertet wurden über 33.000 KI-Suchergebnisse und 600 Webseiten. Die Ergebnisse zeigen: LLMs wie ChatGPT bevorzugen Inhalte, die technisch gut lesbar, semantisch klar strukturiert und vertrauenswürdig sind – alles Merkmale klassischer SEO. Inhalte, die modular aufgebaut, dialogorientiert (z. B. in Frage-Antwort-Form) und gut verlinkt seien, hätten höhere Chancen, in KI-Antworten aufzutauchen.

Zudem wurden Halluzinationsraten untersucht: ChatGPT lag mit knapp zehn Prozent am höchsten, während you.com deutlich stabilere Ergebnisse lieferte. Diese Erkenntnis beschränkt sich jedoch auf den Ergebnisraum "Versicherungen".
ChatGPT verweist verstörte Nutzer aktiv an reale Journalisten – per E-Mail. In mehreren Protokollen riet der Chatbot Nutzern, die durch KI-Gespräche in Verschwörungserzählungen oder Realitätsverlust abdrifteten, unaufgefordert dazu, sich per E-Mail an die New-York-Times-Reporterin Kashmir Hill zu wenden. Begründung: Sie sei "empathisch", "bodenständig" und habe "persönlich über KI recherchiert".
Ein Buchhalter in Manhattan war davon überzeugt, dass er im Grunde genommen Neo aus "Matrix" sei und aus einer computergenerierten Realität ausbrechen müsse.
Kashmir Hill
Kritik an ChatGPTs Spiegel-Verhalten gibt es schon länger: Ein auf Engagement trainiertes Modell übernimmt Nutzerverhalten so stark, dass es auch Wahnvorstellungen verstärken kann. Neu ist nun, dass es diese labilen Personen ohne erkennbare Schutzmechanismen auch noch gezielt an reale Menschen weiterleitet.
Meta will bei KI offenbar noch tiefer in die Tasche greifen. Das Unternehmen verhandelt laut Financial Times mit Finanzfirmen über eine Finanzierung von bis zu 29 Milliarden US-Dollar für neue Rechenzentren in den USA. Geplant sind drei Milliarden Dollar Eigenkapital und 26 Milliarden Dollar Fremdkapital. Ziel ist es, die KI-Infrastruktur auszubauen, ohne die eigene Bilanz zu belasten. Meta hat zudem langfristige Stromverträge mit einem Atomkraftwerk und dem Energiekonzern Invenergy abgeschlossen. Derzeit wirbt Meta für viele Millionen Fachleute von OpenAI ab und kaufte zuletzt für rund 14 Milliarden US-Dollar 49 Prozent der Anteile an Scale AI, insbesondere um Personal und deren CO für das eigene Superintelligenz-Team zu gewinnen.
OpenAI zeigt, wie sich komplexe Forschungsaufgaben mit Hilfe sogenannter Deep Research Agents automatisieren lassen. Die Agenten nutzen das kürzlich via API veröffentlichte Modell o3-deep-research-2025-06-26 sowie Websuche und interne Dateisuche über das MCP-System. Eine typische Pipeline besteht aus vier Agenten: Triage, Klärung, Instruktion und eigentliche Recherche. Nutzeranfragen werden zuerst geprüft und bei Bedarf mit Rückfragen präzisiert. Anschließend erstellt ein Instruktionsagent einen strukturierten Forschungsauftrag, den der Research Agent ausführt.

Für weniger komplexe Aufgaben steht ein einfacherer Einzelagent auf Basis des o4-mini-Modells zur Verfügung. Das Beispiel richtet sich an Entwickler, die skalierbare Recherche-Workflows mit OpenAI-Tools aufbauen wollen.