"The OpenAI Files" ist eine öffentlich zugängliche Plattform, die dokumentierte Kritik an OpenAIs Führungsstruktur, Unternehmenskultur und strategischer Ausrichtung bündelt. Veröffentlicht am 18. Juni 2025, enthält das Projekt Berichte ehemaliger Mitarbeitender, Analysen zu geplanten Umstrukturierungen sowie Einschätzungen zur Rolle von CEO Sam Altman. Im Zentrum steht die Frage, ob OpenAI seine gemeinnützige Mission zugunsten unbegrenzter Investorenrenditen aufgibt. Die Website bietet Einsicht in interne Dokumente und fordert Veränderungen in Transparenz, Sicherheit und Aufsicht. Ziel ist es laut Betreiber, eine öffentliche Debatte über OpenAIs Verantwortung bei der Entwicklung leistungsstarker KI-Modelle anzustoßen.
OpenAI hat den Modus "ChatGPT Record" – vorerst nur für die macOS-Desktop-App und Pro-, Team-, Enterprise- und Edu-Nutzer – veröffentlicht. Damit lassen sich Audioaufnahmen etwa für Besprechungen oder Sprachnotizen aufzeichnen, transkribieren und automatisch als strukturierte Zusammenfassungen speichern. Die Funktion ist auf 120 Minuten pro Sitzung begrenzt und soll derzeit am besten auf Englisch funktionieren. Audioaufnahmen werden nach der Transkription gelöscht und laut Hersteller nicht fürs Modell-Training verwendet. Für Enterprise- und Edu-Nutzer gibt es die Funktion auch über die Compliance-API. Erstmals wurde die Funktion Anfang Juni vorgestellt.
OpenAI veröffentlicht eine Demo für einen KI-gestützten UI-Testagenten auf GitHub, der automatisiert Frontends testet. Das Tool basiert auf dem OpenAI Computer-Using Agent (CUA) und dem Open-Source-Framework Playwright. Es kann selbstständig auf Basis von Beschreibungen Testfälle erstellen, durchführen und auswerten. Ziel ist laut OpenAI, die Effizienz und Qualität von Softwaretests zu verbessern, indem KI-Modelle den gesamten Testprozess unterstützen. Das Projekt ist derzeit noch eine Konzeptstudie.
ChatGPT hat deutlich gegen Ataris Video Chess Engine von 1979 verloren. Während der Chatbot zwar solide Ratschläge gab und Taktiken erklärte, vergaß er gefangene Figuren, verwechselte Türme mit Läufern und verlor allmählich den Überblick über die Spielsituation. Die 1,19-MHz-Engine von Atari zeigte diese Schwächen nicht - sie behielt den Spielstand im Blick und hielt sich an die Regeln. Das reichte für den Sieg.
Kritiker sagen, dass Carusos Experiment Äpfel mit Birnen vergleicht, aber es unterstreicht eine zentrale Schwäche der LLMs: ChatGPT hat nicht verloren, weil es ihm an Wissen mangelte. Es hat verloren, weil es sich nicht erinnern konnte. Symbolische Systeme vergessen das Spielfeld nicht.
"Unabhängig davon, ob wir spezialisierte oder allgemeine KI vergleichen, war ihre Unfähigkeit, einen grundlegenden Zustand des Brettes von Zug zu Zug zu behalten, sehr enttäuschend. Ist das wirklich etwas anderes als das Vergessen anderer wichtiger Zusammenhänge in einem Gespräch?"