Anzeige
Skip to content

OpenAI bringt mit Codex-Spark ein Echtzeit-Coding-Modell auf Cerebras-Hardware

OpenAI veröffentlicht mit GPT-5.3-Codex-Spark ein kleineres Coding-Modell, das auf Cerebras-Hardware läuft und über 1000 Tokens pro Sekunde liefern soll. Es ist das erste Modell, das speziell für Echtzeit-Programmierung optimiert ist.

Read full article about: OpenAI stellt GPT-4o und weitere ältere KI-Modelle in ChatGPT endgültig ein

OpenAI stellt am 13. Februar 2026 mehrere ältere KI-Modelle in ChatGPT ein: GPT-4o, GPT-4.1, GPT-4.1 mini und o4-mini. In der API bleiben die Modelle vorerst verfügbar. Offiziell begründet das Unternehmen den Schritt mit gesunkenem Traffic: Nur noch 0,1 Prozent der Nutzer wählen GPT-4o täglich.

Dass OpenAI speziell zu GPT-4o so detailliert kommuniziert, hat einen Grund: Das Modell hat eine wechselhafte Geschichte. OpenAI hatte es bereits im August 2025 abgeschaltet, dann aber nach massivem Nutzer-Backlash für zahlende Abonnenten wieder aktiviert. Einige Menschen hatten sich emotional an das Modell gebunden, das für seinen gefallsüchtigen Kommunikationsstil bekannt war. OpenAI adressiert das am Ende des Posts:

Wir wissen, dass der Verlust des Zugangs zu GPT-4o für einige Nutzer frustrierend sein wird, und wir haben diese Entscheidung nicht leichtfertig getroffen. Modelle abzuschalten ist nie einfach, aber es erlaubt uns, die Modelle zu verbessern, die die meisten Menschen heute nutzen.

OpenAI

OpenAI verweist zudem auf die verbesserten Nachfolger GPT-5.1 und GPT-5.2, in die das Feedback der GPT-4o-Nutzer eingeflossen sei. Nutzer können nun Ton und Stil von ChatGPT anpassen, etwa Wärme und Enthusiasmus einstellen. Die GPT-4o-Bewegung wird das nicht überzeugen: Mehr als 20 000 Menschen hatten Petitionen gegen die Abschaltung unterzeichnet.

Pentagon rollt ChatGPT aus und drängt auf KI ohne Schutzmaßnahmen auf sensiblen Netzwerken

Das Pentagon drängt führende KI-Unternehmen wie OpenAI, Anthropic, Google und xAI, ihre KI-Werkzeuge ohne die üblichen Nutzungsbeschränkungen auf sicherheitseingestuften Militärnetzwerken bereitzustellen.

Read full article about: OpenAI nutzt angepasste ChatGPT-Version zur Jagd auf interne Whistleblower

OpenAI setzt eine spezielle Version von ChatGPT ein, um interne Informationslecks aufzuspüren. Das berichtet The Information unter Berufung auf eine mit dem Vorgang vertraute Person. Wenn ein Nachrichtenartikel über interne Vorgänge bei OpenAI erscheint, füttern Sicherheitsmitarbeiter den Text in diese ChatGPT-Version, die Zugriff auf interne Dokumente sowie Slack- und E-Mail-Nachrichten der Mitarbeiter hat.

Das System kann dann mögliche Quellen des Lecks vorschlagen, indem es Dateien oder Kommunikationskanäle identifiziert, die die veröffentlichten Informationen enthalten, und zeigt, wer darauf Zugriff hatte. Ob OpenAI mit dieser Methode tatsächlich schon jemanden überführt hat, ist nicht bekannt.

OpenAI-Ingenieure stellten kürzlich die Architektur eines internen KI-Agenten vor, der hier zum Einsatz kommen könnte: Er soll Mitarbeitern komplexe Datenanalysen in natürlicher Sprache ermöglichen und hat auch Zugang zu institutionellem Wissen in Slack-Nachrichten, Google Docs und mehr.

Read full article about: Skills und Internetzugang: OpenAI erweitert API-Möglichkeiten für autonome KI-Agenten

OpenAI erweitert seine Responses-API um neue Funktionen für langlaufende KI-Agenten. Drei Neuerungen stehen im Mittelpunkt: Erstens ermöglicht serverseitige Komprimierung mehrstündige Agenten-Sitzungen, ohne an Kontextlimits zu stoßen. Zweitens erhalten von OpenAI gehostete Container kontrollierten Internetzugang, um Bibliotheken zu installieren und Skripte auszuführen. Drittens führt OpenAI sogenannte "Skills" ein – wiederverwendbare Pakete aus Anweisungen, Skripten und Dateien, die Agenten bei Bedarf laden und ausführen können.

Skills sollen als Mittelschicht zwischen Systemprompts und Tools dienen: Statt lange Arbeitsabläufe in jeden Prompt zu packen, werden sie als versionierte Bündel gespeichert und nur bei Bedarf aktiviert. Sie lassen sich per ZIP-Datei hochladen, versionieren und über die API in gehosteten oder lokalen Containern nutzen. OpenAI empfiehlt, Skills wie kleine Kommandozeilenprogramme zu gestalten und in Produktionsumgebungen feste Versionen zu verwenden.

Read full article about: Neues ChatGPT-Update soll Antworten sachlicher und relevanter machen

ChatGPT-Modell-Updates gibt’s jetzt auch zwischen den Modell-Versionen: OpenAI hat am 10. Februar 2026 ein Update für GPT-5.2 Instant in ChatGPT und der API veröffentlicht. Laut OpenAI verbessert das Update den Stil und die Qualität der Antworten. Nutzer sollen Antworten erhalten, die sachlicher und im Ton besser an den jeweiligen Gesprächskontext angepasst sind. Außerdem liefere das Modell bei Ratgeber- und Anleitungsfragen klarere und relevantere Antworten, wobei die wichtigsten Informationen zuverlässiger an den Anfang gestellt werden.

Das Update bezieht sich konkret auf das "Instant"-Modell, also die Variante ohne Reasoning-Schritte. In der API kann es via "gpt-5.2-chat-latest" direkt angesteuert werden, in ChatGPT muss man im Modellwechsler auf "Instant" umstellen. Das Modell kommt zudem zum Einsatz, wenn der GPT-5-Router einschätzt, dass ein teureres Reasoning-Modell nicht nötig ist, oder wenn der Nutzer keine Credits mehr für die teureren Modelle hat – insbesondere in der kostenlosen ChatGPT-Version.

Read full article about: Deep Research in ChatGPT bekomt großes GPT-5-Update

OpenAI hat Deep Research in ChatGPT verbessert. Die Funktion wird ab sofort mit dem neuen Modell GPT-5.2 betrieben, wie OpenAI auf X mitteilte. Neu ist, dass Nutzer Apps in ChatGPT anbinden und, das könnte sehr nützlich sein, gezielt bestimmte Webseiten durchsuchen können. Außerdem lässt sich der Fortschritt der Recherche in Echtzeit verfolgen, mit Rückfragen unterbrechen oder um neue Quellen ergänzen. Ergebnisse können nun als Vollbildberichte angezeigt werden.

Bisher lief das 2025 eingeführte Deep Research auf Basis von o3- und o4-mini-Modellen. Deep Research gilt als erster "KI-Agent" in ChatGPT, da das System anhand der Nutzeranfrage eigenständig mehrstufige Websuchen startet, bevor es antwortet. Allerdings schützt auch die Websuche nicht vor Fehlern generativer KI und je länger die erzeugten Texte, desto höher das Fehlerrisiko. Gezielte Suchanfragen mit Reasoning-Modellen sind im Alltag oft zuverlässiger.

Generell gilt, dass Websuche die Halluzinationsraten zwar deutlich reduziert, aber nicht beseitigt. Mehr Tipps, wie man KI-Halluzinationen reduzieren kann, gibt es bei heise KI Pro.

Read full article about: OpenAI verwirft den Namen "io" für sein KI-Gerät – Marktstart erst 2027

OpenAI wird den Namen "io" nicht für seine geplanten KI-Hardware-Geräte verwenden. Das geht aus einem Gerichtsdokument hervor, das im Rahmen einer Markenrechtsklage des Audio-Startups iyO eingereicht wurde, berichtet Wired. Bereits im Juni 2025 hatte OpenAI Hinweise auf das Projekt entfernt.

OpenAI-Vizepräsident Peter Welinder erklärte, das Unternehmen habe seine Namensstrategie überprüft und sich gegen den Namen "io" entschieden. Zudem gab OpenAI an, dass das erste Hardware-Gerät frühestens Ende Februar 2027 ausgeliefert wird – später als bisher kommuniziert. Verpackungen oder Werbematerialien existieren noch nicht.

OpenAI hatte im Mai 2025 das Hardware-Startup von Ex-Apple-Designer Jony Ive für 6,5 Milliarden Dollar übernommen. Am Wochenende kursierte zudem ein gefälschter Super-Bowl-Werbespot, der angeblich OpenAIs Gerät zeigte. OpenAI-Sprecherin Lindsay McCallum bestätigte gegenüber Wired, dass das Unternehmen nichts damit zu tun hatte.