Elon Musks KI-Unternehmen xAI hat laut The Information 10 Milliarden US-Dollar Kapital aufgenommen – je zur Hälfte in Form von Eigenkapital und Schulden. Morgan Stanley, das die Schuldfinanzierung begleitete, erklärte, die Kombination senke die Kapitalkosten und erweitere den Zugang zu Finanzmitteln. Details zu den Investoren nannte die Bank nicht. Bereits im Dezember hatte xAI 6 Milliarden US-Dollar von Geldgebern wie Andreessen Horowitz, BlackRock, Lightspeed Venture Partners und MGX eingesammelt, um KI-Rechenzentren zu bauen und Grok, das Konkurrenzmodell zu ChatGPT, weiterzuentwickeln. Anschließend übernahm xAI Musks Plattform X in einem Aktientausch und kam so auf eine Bewertung von 113 Milliarden US-Dollar.
Das ERGO Innovation Lab hat gemeinsam mit ECODYNAMICS eine Studie zur Sichtbarkeit von Versicherungsinhalten in KI-Suchsystemen veröffentlicht. Ausgewertet wurden über 33.000 KI-Suchergebnisse und 600 Webseiten. Die Ergebnisse zeigen: LLMs wie ChatGPT bevorzugen Inhalte, die technisch gut lesbar, semantisch klar strukturiert und vertrauenswürdig sind – alles Merkmale klassischer SEO. Inhalte, die modular aufgebaut, dialogorientiert (z. B. in Frage-Antwort-Form) und gut verlinkt seien, hätten höhere Chancen, in KI-Antworten aufzutauchen.

Zudem wurden Halluzinationsraten untersucht: ChatGPT lag mit knapp zehn Prozent am höchsten, während you.com deutlich stabilere Ergebnisse lieferte. Diese Erkenntnis beschränkt sich jedoch auf den Ergebnisraum "Versicherungen".
ChatGPT verweist verstörte Nutzer aktiv an reale Journalisten – per E-Mail. In mehreren Protokollen riet der Chatbot Nutzern, die durch KI-Gespräche in Verschwörungserzählungen oder Realitätsverlust abdrifteten, unaufgefordert dazu, sich per E-Mail an die New-York-Times-Reporterin Kashmir Hill zu wenden. Begründung: Sie sei "empathisch", "bodenständig" und habe "persönlich über KI recherchiert".
Ein Buchhalter in Manhattan war davon überzeugt, dass er im Grunde genommen Neo aus "Matrix" sei und aus einer computergenerierten Realität ausbrechen müsse.
Kashmir Hill
Kritik an ChatGPTs Spiegel-Verhalten gibt es schon länger: Ein auf Engagement trainiertes Modell übernimmt Nutzerverhalten so stark, dass es auch Wahnvorstellungen verstärken kann. Neu ist nun, dass es diese labilen Personen ohne erkennbare Schutzmechanismen auch noch gezielt an reale Menschen weiterleitet.