Short

Das ERGO Innovation Lab hat gemeinsam mit ECODYNAMICS eine Studie zur Sichtbarkeit von Versicherungsinhalten in KI-Suchsystemen veröffentlicht. Ausgewertet wurden über 33.000 KI-Suchergebnisse und 600 Webseiten. Die Ergebnisse zeigen: LLMs wie ChatGPT bevorzugen Inhalte, die technisch gut lesbar, semantisch klar strukturiert und vertrauenswürdig sind – alles Merkmale klassischer SEO. Inhalte, die modular aufgebaut, dialogorientiert (z. B. in Frage-Antwort-Form) und gut verlinkt seien, hätten höhere Chancen, in KI-Antworten aufzutauchen.

Bild: Ergo Innovation Lab

Zudem wurden Halluzinationsraten untersucht: ChatGPT lag mit knapp zehn Prozent am höchsten, während you.com deutlich stabilere Ergebnisse lieferte. Diese Erkenntnis beschränkt sich jedoch auf den Ergebnisraum "Versicherungen".

Short

ChatGPT verweist verstörte Nutzer aktiv an reale Journalisten – per E-Mail. In mehreren Protokollen riet der Chatbot Nutzern, die durch KI-Gespräche in Verschwörungserzählungen oder Realitätsverlust abdrifteten, unaufgefordert dazu, sich per E-Mail an die New-York-Times-Reporterin Kashmir Hill zu wenden. Begründung: Sie sei "empathisch", "bodenständig" und habe "persönlich über KI recherchiert".

Ein Buchhalter in Manhattan war davon überzeugt, dass er im Grunde genommen Neo aus "Matrix" sei und aus einer computergenerierten Realität ausbrechen müsse.

Kashmir Hill

Kritik an ChatGPTs Spiegel-Verhalten gibt es schon länger: Ein auf Engagement trainiertes Modell übernimmt Nutzerverhalten so stark, dass es auch Wahnvorstellungen verstärken kann. Neu ist nun, dass es diese labilen Personen ohne erkennbare Schutzmechanismen auch noch gezielt an reale Menschen weiterleitet.

Short

Meta will bei KI offenbar noch tiefer in die Tasche greifen. Das Unternehmen verhandelt laut Financial Times mit Finanzfirmen über eine Finanzierung von bis zu 29 Milliarden US-Dollar für neue Rechenzentren in den USA. Geplant sind drei Milliarden Dollar Eigenkapital und 26 Milliarden Dollar Fremdkapital. Ziel ist es, die KI-Infrastruktur auszubauen, ohne die eigene Bilanz zu belasten. Meta hat zudem langfristige Stromverträge mit einem Atomkraftwerk und dem Energiekonzern Invenergy abgeschlossen. Derzeit wirbt Meta für viele Millionen Fachleute von OpenAI ab und kaufte zuletzt für rund 14 Milliarden US-Dollar 49 Prozent der Anteile an Scale AI, insbesondere um Personal und deren CO für das eigene Superintelligenz-Team zu gewinnen.

Anzeige
Short

OpenAI zeigt, wie sich komplexe Forschungsaufgaben mit Hilfe sogenannter Deep Research Agents automatisieren lassen. Die Agenten nutzen das kürzlich via API veröffentlichte Modell o3-deep-research-2025-06-26 sowie Websuche und interne Dateisuche über das MCP-System. Eine typische Pipeline besteht aus vier Agenten: Triage, Klärung, Instruktion und eigentliche Recherche. Nutzeranfragen werden zuerst geprüft und bei Bedarf mit Rückfragen präzisiert. Anschließend erstellt ein Instruktionsagent einen strukturierten Forschungsauftrag, den der Research Agent ausführt.

Bild: OpenAI

Für weniger komplexe Aufgaben steht ein einfacherer Einzelagent auf Basis des o4-mini-Modells zur Verfügung. Das Beispiel richtet sich an Entwickler, die skalierbare Recherche-Workflows mit OpenAI-Tools aufbauen wollen.

Anzeige
Short

Das Video-KI-Start-up Runway startet kommende Woche die Plattform "Game Worlds", mit der Nutzer eigene Spiele im Stil von Text-Adventures per Texteingabe und Bildgenerierung erstellen können. Die Funktionen sollen schrittweise erweitert werden. Laut CEO Cristóbal Valenzuela verhandelt das Unternehmen mit Spielefirmen über den Einsatz seiner Technik und den Zugang zu deren Datensätzen für Trainingszwecke. Valenzuela sagt, Spieleentwickler reagierten derzeit schneller auf KI als Filmstudios. Game Worlds ist hier erreichbar, das folgende Video gibt einen ersten Eindruck.

Short

Context Engineering schlägt Prompt Engineering. Das glauben jedenfalls Shopify-CEO Tobi Lütke und Ex-OpenAI-Forscher Andrej Karpathy. Beide bevorzugen den Begriff, weil er besser beschreibe, worum es bei der Arbeit mit großen Sprachmodellen gehe: nämlich darum, den Kontext so aufzubereiten, dass ein Modell eine Aufgabe sinnvoll lösen kann. Lütke nennt es die "Kernfähigkeit" im Umgang mit LLMs, für Karpathy ist es "sowohl Wissenschaft als auch Intuition."

Zu wenig oder in der falschen Form – und das LLM hat nicht den richtigen Kontext für optimale Leistung. Zu viel oder zu wenig relevant – und die Kosten für das LLM steigen, während die Leistung sinken kann. Das richtig zu machen, ist alles andere als einfach.

Andrej Karpathy

Die Optimierung des Kontexts ist auch deshalb wichtig, weil die Genauigkeit von KI-Modellen – selbst bei großen Kontextfenstern – bei sehr umfangreichen Inhalten abnimmt.

Anzeige
Google News