Inhalt
summary Zusammenfassung

OpenAI veröffentlicht einen umfangreichen Prompting-Leitfaden für GPT-5. Der Guide adressiert agentische Workflows, neue API-Parameter, Coding-Workflows und konkrete Prompting-Muster – inklusive Erkenntnissen aus der Integration des Code-Editors Cursor.

Anzeige

Laut dem Leitfaden wurde GPT-5 gezielt für Werkzeugaufrufe, Instruktionsbefolgung und das Verständnis sehr langer Kontexte trainiert, um als Fundament für agentische Anwendungen zu dienen. Für solche Abläufe empfiehlt OpenAI die Responses-API, da dort das Denken zwischen Werkzeugaufrufen erhalten bleibt und so Effizienz und Qualität steigen sollen. Laut Leitfaden steigt der Score etwa im Tau-Benchmark für den Handel von 73,9 Prozent auf 78,2 Prozent allein durch den Wechsel von Chat Completions zur Responses-API und die Rückgabe früherer Denkbestandteile via "previous_response_id". Wenn der Reasoning-Kontext erhalten bleibe, spare das Reasoning-Token, erhalte Pläne über Werkzeugaufrufe hinweg und verbessere die Latenz sowie Leistung.

Die Proaktivität des Modells ("agentic eagerness") lässt sich über Prompts und den Parameter "reasoning_effort" kalibrieren: Wer weniger Vorpreschen wünscht, senkt den Denkaufwand, definiert klare Kriterien für die Kontextsuche und kann ein festes Budget für Werkzeugaufrufe (etwa maximal zwei) setzen – inklusive der Erlaubnis, bei Restunsicherheit fortzufahren.

Für mehr Eigeninitiative empfiehlt der Leitfaden höhere Denkstufen und Persistenzanweisungen, die Rückfragen minimieren sowie klare Stopps, sichere vs. riskante Aktionen und Schwellen für Rückgaben an die Nutzer festlegen. In Kauf- und Bezahlprozessen sollte die Schwelle niedriger liegen als etwa bei der Suche, in der Programmierung sollte ein Werkzeug zum Löschen von Dateien höhere Hürden haben als eine reine Textsuche.

Anzeige
Anzeige

Zur besseren Nachvollziehbarkeit in längeren Rollouts beschreibt der Leitfaden Vorlaufmeldungen zu Werkzeugaufrufen: GPT-5 sei darauf trainiert, zu Beginn einen Plan zu skizzieren und später den Fortschritt knapp zu protokollieren. Häufigkeit, Stil und Inhalt lassen sich per Prompt steuern – etwa Zielparaphrase, strukturierter Plan, sequenzielle Kurzmeldungen und ein separater Abschlussbericht. Für mehrstufige Aufgaben empfiehlt OpenAI, trennbare Teilaufgaben auf mehrere Agentenrunden aufzuteilen.

OpenAI gibt konkrete Framework-Empfehlungen für Coder

OpenAI positioniert GPT-5 auch als starkes Modell für Softwareentwicklung: Es soll große Codebasen bearbeiten, Fehler beheben, große Änderungen (Diffs) verarbeiten, mehrdateilige Refactorings oder große neue Funktionen umsetzen und komplette Anwendungen neu erstellen können.

Für neue Weboberflächen empfiehlt OpenAI eine Umgebung mit Next.js (TypeScript), React und HTML sowie Tailwind CSS, shadcn/ui, Radix Themes, die Icon-Sammlungen Material Symbols, Heroicons und Lucide, die Animationsbibliothek Motion sowie Schriften wie Inter, Geist, Mona Sans, IBM Plex Sans oder Manrope.

Für Neuentwicklungen beschreibt der Leitfaden ein Prompt-Muster, in dem das Modell intern eine Qualitätsrubrik mit fünf bis sieben Kategorien entwirft und so lange iteriert, bis alle Kategorien auf Höchstniveau erfüllt sind.

Für inkrementelle Änderungen und Refactorings sollen von GPT-5 verfasste Anpassungen möglichst unauffällig in die bestehende Struktur passen. Der Leitfaden rät, das technische Setup der Codebasis explizit zu spiegeln – Prinzipien, Verzeichnisstruktur und UI/UX-Regeln. Beispielhaft listet OpenAI Leitprinzipien (Klarheit/Wiederverwendung, Konsistenz, Einfachheit, Demo-Fokus, visuelle Qualität), Stack-Standards (inklusive Verzeichnislayout) und UI/UX-Regeln (Typografie-Hierarchie, Farben, Abstände, Zustandsanzeigen, Barrierefreiheit).

Empfehlung

Praxis: Cursor kürzt Text, erhöht Autonomie beim Coden

Der Code-Editor Cursor testete GPT-5 frühzeitig und dokumentiert die Integration in einem eigenen Blogbeitrag. Laut dem OpenAI-Leitfaden suchte Cursor bei langen Aufgaben eine Balance aus autonomem Verhalten und knappen Textmeldungen. Anfangs gab GPT-5 zu ausführliche Statusmeldungen aus, während Code in Werkzeugaufrufen zu knapp war (etwa einbuchstabige Variablennamen). Cursor stellte den neuen API-Parameter "verbosity" global auf niedrig und wies das Modell gleichzeitig im Prompt an, in Code-Werkzeugen ausführlicher zu sein ("Write code for clarity first ... Use high verbosity for writing code and code tools."). Das Ergebnis: kompakte Status- und Abschlussmeldungen, aber deutlich besser lesbare Codeänderungen.

Das Team beobachtete zudem, dass GPT-5 teils unnötig Rückfragen stellte. Laut Leitfaden reduzierte ein präziseres Umgebungsbriefing (etwa zu Rückgängig-/Ablehnen-Funktionen und Nutzerpräferenzen) diese Unterbrechungen; das Modell setzte Änderungen proaktiv um und übergab sie zur Prüfung, statt vorab um Zustimmung zu bitten.

Eine weitere Erkenntnis: Prompts, die bei früheren Modellen nützlich waren, führten bei GPT-5 zu übermäßig vielen Werkzeugaufrufen. Nach dem Abschwächen solcher Maximal-Gründlichkeitsanweisungen traf GPT-5 bessere Entscheidungen, wann internes Wissen genügt und wann externe Werkzeuge nötig sind. Strukturierte, XML-ähnliche Spezifikationen verbesserten laut OpenAI die Befolgung von Instruktionen, und nutzerkonfigurierbare Cursor-Regeln erhöhten die Steuerbarkeit weiter.

Präzise Anweisungen, neuer Längenregler, Minimalmodus

Der neue API-Parameter "verbosity" steuert die Länge der finalen Antwort – unabhängig vom Denkaufwand (Parameter "reasoning_effort"). Laut Leitfaden lässt sich die globale Einstellung punktuell per Prompt überschreiben, etwa wie bei Cursor: global kurz, in Code-Werkzeugen ausführlich.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Neu ist der Modus "minimales Denken" als schnellste Option, die die Vorteile des Reasoning-Paradigmas beibehalten soll. OpenAI empfiehlt in diesem Modus spezifische Prompts: eine kurze Übersicht der Begründung zu Beginn der Antwort, aussagekräftige Vorlaufmeldungen zu Werkzeugaufrufen, maximal eindeutige Werkzeuginstruktionen mit Persistenz-Erinnerungen und explizite Vorabplanung, damit der Agent Aufgaben vollständig erledigt, bevor er an die Nutzer zurückgibt. Für Umsteiger von GPT-4.1 verweist OpenAI auf bekannte Muster aus dem GPT-4.1-Leitfaden.

Bei der Instruktionsbefolgung mahnt OpenAI generell zu Sorgfalt: GPT-5 folge Anweisungen sehr präzise und vage oder widersprüchliche Prompts könnten die Denkspuren verwirren. Dafür verweist OpenAI auch auf den eigenen Prompt-Optimierer, der helfen soll, Brüche und Unklarheiten zu finden.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • OpenAI hat einen umfassenden Leitfaden zum Prompting mit GPT-5 veröffentlicht, der gezielt auf agentische Workflows, neue API-Parameter wie "reasoning_effort" und "verbosity", Coding-Workflows sowie konkrete Prompt-Muster eingeht – inklusive Erkenntnissen aus der Integration des Code-Editors Cursor.
  • GPT-5 wurde laut Leitfaden speziell darauf trainiert, Werkzeugaufrufe effizient zu nutzen, längere Kontexte zu verstehen und Instruktionen präzise zu befolgen. Die neue Responses-API soll dabei helfen, Denkprozesse zwischen Werkzeugaufrufen zu erhalten und die Leistung in Benchmarks wie Tau durch bessere Kontextverwaltung zu steigern.
  • Für Coding-Aufgaben empfiehlt OpenAI bestimmte Frameworks wie Next.js, React und Tailwind CSS sowie klare Prinzipien für Codequalität und Struktur. Erfahrungen mit Cursor zeigen, dass der neue "verbosity"-Parameter die Textlänge steuert, gezieltes Prompting die Eigeninitiative verbessert und präzise Anweisungen für stabile Resultate sorgen.
Quellen
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!