OpenAI zeigt, wie intern KI-Agenten Datenanalysen übernehmen
OpenAI hat einen internen KI-Datenagenten entwickelt, der Mitarbeitern komplexe Datenanalysen in natürlicher Sprache ermöglicht. Eine Schlüsselmethode namens „Codex Enrichment“ durchsucht dabei die Codebasis, um Tabellen wirklich zu verstehen.
OpenAI gibt wohl den vor einem halben Jahr eingeführten "ChatGPT Agent" auf, der ohnehin nie richtig Sinn ergeben hat. Das Produkt erreichte zum Start seinen Höhepunkt mit vier Millionen wöchentlich aktiven zahlenden Nutzern, etwa elf Prozent der damals 35 Millionen zahlenden Nutzer, berichtet The Information. Wenige Monate später fiel die Zahl unter eine Million. Nutzer wussten offenbar nicht, was sie mit dem Produkt anfangen sollten, oder fanden es gar nicht. Hinzu kamen Probleme bei Geschwindigkeit, Verlässlichkeit und Cybersecurity.
OpenAI setzt nun laut The Information auf spezialisierte Agenten wie den Shopping-Agenten für Produktempfehlungen: Nutzer verstehen den Zweck besser und das Produktteam muss weniger Funktionen einbauen, sodass das Produkt besser funktioniert.
Google Deepmind macht Project Genie öffentlich zugänglich. Der experimentelle Prototyp, der auf dem im August vorgestellten Weltmodell Genie 3 basiert, steht ab sofort Google AI Ultra-Abonnenten in den USA (ab 18 Jahren) zur Verfügung. Die Web-App ermöglicht es Nutzern, per Text oder Bild interaktive Welten zu erstellen und in Echtzeit zu erkunden. Dabei generiert das System den Weg voraus, während man sich bewegt. Project Genie bietet drei Hauptfunktionen: World Sketching für die Welterstellung mit Nano Banana Pro und Gemini, World Exploration für die Navigation sowie World Remixing zum Verändern bestehender Welten.
Der Prototyp hat laut Google noch einige Fehler: Welten sehen nicht immer realistisch aus, Charaktere reagieren teils verzögert, und Generierungen sind auf 60 Sekunden begrenzt. Einige im August angekündigte Funktionen wie promptbare Events fehlen noch. Eine Ausweitung auf weitere Länder ist geplant.
OpenAI-Forscher Kevin Weil widerspricht Berichten, wonach das Unternehmen an den Entdeckungen einzelner Nutzer, Unternehmer oder Wissenschaftler beteiligt sein wolle. Zuvor hatte OpenAIs Finanzchefin Sarah Friar in einem Blog-Post geschrieben, dass OpenAI Lizenzvereinbarungen auf Basis von geistigem Eigentum sowie ergebnisbasierte Preismodelle plane, die an der geschaffenen Wertschöpfung beteiligt seien.
Weil stellt auf X klar: Friar habe damit nicht gemeint, dass OpenAI Anteile an individuellen Entdeckungen beanspruchen wolle. Stattdessen sei es Friar um das Interesse großer Organisationen an Lizenz- oder IP-basierten Partnerschaften gegangen. OpenAI sei offen für kreative Kooperationen mit Unternehmen. Solche Vereinbarungen würden aber individuell ausgehandelt und beträfen keine einzelnen Nutzer.
Zum Thema Prism, OpenAIs neuer Umgebung für wissenschaftliches Schreiben, erklärt Weil: Nutzer können in den ChatGPT-Einstellungen selbst festlegen, ob ihre anonymisierten Daten zur Modellverbesserung verwendet werden. Diese Einstellung gelte auch für Prism.
45 Prozent von Microsofts Cloud-Auftragsbestand stammen von OpenAI
Microsoft übertrifft die Erwartungen mit Rekord-Cloud-Umsätzen, doch die Aktie stürzt ab. Investoren zweifeln, ob sich die Milliarden-Investitionen in KI-Infrastruktur auszahlen. Verbrennt Microsoft mit seiner KI-Offensive mehr Geld, als es verdient?
OpenAI bekommt offenbar die 100 Milliarden voll. Laut The Information verhandelt das KI-Unternehmen mit Nvidia, Microsoft und Amazon über Investitionen von bis zu 60 Milliarden Dollar. Nvidia könnte bis zu 30 Milliarden Dollar investieren, Amazon mehr als 10, möglicherweise sogar mehr als 20 Milliarden Dollar, und Microsoft weniger als 10 Milliarden Dollar. Dazu kommt der bestehende Investor SoftBank mit bis zu 30 Milliarden Dollar. Die Finanzierungsrunde könnte also in den zuvor gerüchteten rund 100 Milliarden US-Dollar bei einer Bewertung von rund 730 Milliarden Dollar enden.
Kritiker dürften hier auf die Zirkularität dieser Deals hinweisen: Einige der potenziellen Investoren wie Microsoft und Amazon sind gleichzeitig Geschäftspartner, die Server und Cloud-Dienste an OpenAI verkaufen. Das investierte Geld fließt also teilweise wieder an die Investoren zurück. Die Deals halten den KI-Hype am Laufen, ohne dass der tatsächliche finanzielle Nutzen von generativer KI beim Endnutzer eingepreist wird.
Der KI-Coding-Assistent Cursor soll die Indexierungszeit großer Codebasen von über vier Stunden auf 21 Sekunden verkürzen. Statt bei jedem neuen Nutzer einen Index von Grund auf neu zu erstellen, nutzt Cursor bestehende Indizes von Teammitgliedern wieder. Das funktioniere, weil Kopien derselben Codebasis innerhalb eines Teams im Durchschnitt zu 92 Prozent identisch seien, schreibt das Unternehmen in einem Blogbeitrag.
Merkle-Bäume vergleichen Dateihashes zwischen Client und Repository, synchronisieren nur abweichende Dateien und löschen fehlende Einträge.
Die semantische Suche, die durch diese Indizes ermöglicht wird, verbessere laut einer Cursor-Studie die Genauigkeit von KI-Antworten um 12,5 Prozent. Die Technik basiert auf Merkle-Bäumen, einer Datenstruktur mit kryptografischen Hashes. Diese stellt sicher, dass Nutzer nur Code sehen, auf den sie tatsächlich Zugriff haben. Bei durchschnittlichen Projekten sinke die Wartezeit bis zur ersten Suchanfrage von knapp 8 Sekunden auf 525 Millisekunden. Das Start-up hinter Cursor hatte im Oktober 2025 Version 2.0 mit einem eigenen Coding-Modell veröffentlicht und erzielt mittlerweile einen Jahresumsatz von rund 500 Millionen Dollar.
Google arbeitet an einer Funktion, mit der Nutzer ihre eigene Stimme in AI Studio klonen können. Eine versteckte Option namens "Create Your Voice" erscheint laut TestingCatalog bei der Auswahl des "Flash Native Audio Preview"-Modells, das derzeit mit Gemini 2.5 Flash verbunden ist. Bei Auswahl öffnet sich ein Fenster zum Aufnehmen und Hochladen von Audio, die Funktion ist aber noch nicht aktiv. Die Entdeckung deutet darauf hin, dass Google native Audio-Fähigkeiten für Gemini 3 Flash vorbereitet. Damit könnten Entwickler künstliche Stimmen erzeugen, die auf aufgenommenen Sprachproben basieren. Google hatte erst im Dezember 2025 ein Update für Gemini 2.5 Flash Native Audio veröffentlicht, das die Sprachqualität verbesserte und Anweisungen präziser umsetzt.
Die versteckte Option "Create your voice" in Google AI Studio deutet auf kommende Funktionen zum Klonen von Stimmen hin.
Zusätzlich wurde eine neue Option gefunden, mit der sich ganze Code-Sammlungen über GitHub-Repositories importieren lassen. Auch die Startseite wird allem Anschein nach überarbeitet und zeigt künftig Aktivitäten und Nutzungsstatistiken getrennt an.