OpenAI hat mehrere neue Funktionen für seine Responses API veröffentlicht, die sich an Entwickler und Unternehmen richten, die KI-gestützte Anwendungen auf Basis von GPT-4o und der o-Modellreihe entwickeln.
Die Responses API ist OpenAIs Schnittstelle für sogenannte agentische Anwendungen – also Systeme, die selbstständig Aufgaben erledigen können, indem sie Werkzeuge aufrufen, Informationen beschaffen oder mit externen Diensten interagieren.
Ein zentraler Bestandteil des Updates ist die Einführung von Remote-MCP-Servern. Das Model Context Protocol (MCP) ist ein offener, von Anthropic eingeführter Standard, der den Zugriff auf externe Tools und Datenquellen regelt und von immer mehr KI-Unternehmen integriert wird. Mit der neuen Unterstützung können Entwickler beliebige MCP-kompatible Server anbinden, etwa von Anbietern wie Stripe, Twilio, Shopify, PayPal oder Intercom.
Neue Tools für Responses API
Außerdem wurden mehrere Tools direkt in die Responses API eingebaut. Dazu zählt auch das Bildmodell „gpt-image-1“, das hinter der Bildgenerierung von ChatGPT und Sora steht. Der ebenfalls von ChatGPT bekannte Code Interpreter wurde ebenfalls integriert und kann komplexe Berechnungen, Datenanalysen und Bildverarbeitung durchführen. Auch die Dateisuche wurde verbessert und unterstützt nun unter anderem Filter mit Attributen und die Suche über mehrere Vektorspeicher hinweg.
Für Entwickler von Agenten sind neue Funktionen zur Optimierung von Zuverlässigkeit, Datenschutz und Benutzerfreundlichkeit hinzugekommen. Der sogenannte Hintergrundmodus erlaubt es, Aufgaben mit langer Laufzeit asynchron zu verarbeiten, ohne dass Verbindungen offen bleiben müssen. Die API bietet außerdem automatische Zusammenfassungen der Denkprozesse („reasoning summaries“), was die Nachvollziehbarkeit von Modellantworten erleichtert. Für Kunden mit Zero-Data-Retention-Vereinbarungen bietet OpenAI nun die Möglichkeit, verschlüsselte Reasoning-Daten zwischen API-Anfragen weiterzugeben, ohne dass diese auf den Servern gespeichert werden.
Die neuen Funktionen stehen über die Responses API sofort zur Verfügung. Die Preisstruktur bleibt im Wesentlichen unverändert. Die Nutzung von Remote-MCP-Servern verursacht keine zusätzlichen Kosten, abgerechnet werden nur die generierten Ausgabe-Tokens.