OpenAI baut seine Beratungsdienste für Unternehmen und Behörden aus und verlangt dafür laut The Information mindestens zehn Millionen US-Dollar pro Kunde. Dabei helfen OpenAI-Ingenieure, KI-Modelle wie GPT-4o mit unternehmensspezifischen Daten anzupassen und Anwendungen wie Chatbots zu entwickeln. Die Initiative bringt OpenAI in direkte Konkurrenz zu Firmen wie Palantir und Accenture. Das zuständige Team bei OpenAI heißt "Forward Deployed Engineers" (FDE).
Die Beratungsleistung umfasst auch das sogenannte Data Labeling, bei dem Fachleute die Antworten der KI bewerten oder korrigieren. OpenAI prüft laut Insidern eine Auslagerung dieser Arbeit an spezialisierte Anbieter wie Snorkel AI und Surge AI. Zu den Kunden zählen unter anderem das US-Verteidigungsministerium und das südostasiatische Unternehmen Grab.
Das ERGO Innovation Lab hat gemeinsam mit ECODYNAMICS eine Studie zur Sichtbarkeit von Versicherungsinhalten in KI-Suchsystemen veröffentlicht. Ausgewertet wurden über 33.000 KI-Suchergebnisse und 600 Webseiten. Die Ergebnisse zeigen: LLMs wie ChatGPT bevorzugen Inhalte, die technisch gut lesbar, semantisch klar strukturiert und vertrauenswürdig sind – alles Merkmale klassischer SEO. Inhalte, die modular aufgebaut, dialogorientiert (z. B. in Frage-Antwort-Form) und gut verlinkt seien, hätten höhere Chancen, in KI-Antworten aufzutauchen.
Bild: Ergo Innovation Lab
Zudem wurden Halluzinationsraten untersucht: ChatGPT lag mit knapp zehn Prozent am höchsten, während you.com deutlich stabilere Ergebnisse lieferte. Diese Erkenntnis beschränkt sich jedoch auf den Ergebnisraum "Versicherungen".
ChatGPT verweist verstörte Nutzer aktiv an reale Journalisten – per E-Mail. In mehreren Protokollen riet der Chatbot Nutzern, die durch KI-Gespräche in Verschwörungserzählungen oder Realitätsverlust abdrifteten, unaufgefordert dazu, sich per E-Mail an die New-York-Times-Reporterin Kashmir Hill zu wenden. Begründung: Sie sei "empathisch", "bodenständig" und habe "persönlich über KI recherchiert".
Ein Buchhalter in Manhattan war davon überzeugt, dass er im Grunde genommen Neo aus "Matrix" sei und aus einer computergenerierten Realität ausbrechen müsse.
Kashmir Hill
Kritik an ChatGPTs Spiegel-Verhalten gibt es schon länger: Ein auf Engagement trainiertes Modell übernimmt Nutzerverhalten so stark, dass es auch Wahnvorstellungen verstärken kann. Neu ist nun, dass es diese labilen Personen ohne erkennbare Schutzmechanismen auch noch gezielt an reale Menschen weiterleitet.