OpenAI veröffentlicht Prompt-Guide für bessere ChatGPT- und LLM-Performance
Kurz & Knapp
- OpenAI veröffentlicht Tipps zum Prompting, unterteilt in sechs Strategien, um bessere Ergebnisse von KI-Sprachmodellen wie GPT-4 zu erzielen.
- Die Strategien umfassen klare Anweisungen geben, Referenztext bereitstellen, komplexe Aufgaben in Unteraufgaben unterteilen, dem Modell Zeit zum "Nachdenken" geben, externe Tools verwenden und gezielte Auswertungen durchführen.
- Diese Tipps sollen dazu beitragen, die Leistung von KI-Sprachmodellen zu verbessern und Benutzern helfen, effektivere und genauere Antworten von den Modellen zu erhalten.
Prompting-Tipps direkt von der Quelle: OpenAI veröffentlicht eigenes Erfahrungswissen rund um das Prompting.
Im Zentrum der Prompting-Tipps stehen sechs Strategien, die OpenAI wie folgt unterteilt.
Klare Anweisungen geben
GPT-Modelle können keine Gedanken lesen, daher ist es wichtig, klare Anweisungen zu geben, um das gewünschte Ergebnis zu erzielen. Einige Taktiken, um klare Anweisungen zu geben.
- Details in die Anfrage einfügen, um aussagekräftigere Antworten zu erhalten.
- Dem Modell eine Rolle zuweisen
- Verwendung von Begrenzungszeichen, um bestimmte Teile der Anfrage zu kennzeichnen
- Die Schritte angeben, die erforderlich sind, um eine Aufgabe zu erledigen.
- Beispiele bereitstellen
- Die gewünschte Länge der Ausgabe angeben
Bereitstellung von Referenztexten
Sprachmodelle sind anfällig für falsche Antworten, insbesondere bei Fragen zu "esoterischen Themen" oder zu Zitaten und URLs. Die Bereitstellung von Referenztext kann dazu beitragen, die Anzahl falscher Antworten zu reduzieren. Taktiken für diese Strategie sind
- Anweisung an das Modell, auf der Grundlage eines Referenztextes zu antworten
- Anweisung an das Modell, mit Zitaten aus einem Referenztext zu antworten
Unterteilung komplexer Aufgaben in einfache Teilaufgaben
Da komplexe Aufgaben in der Regel höhere Fehlerquoten aufweisen als einfachere Aufgaben, kann es hilfreich sein, eine komplexe Aufgabe in eine Reihe modularer Komponenten zu zerlegen. Taktiken für diese Strategie sind zum Beispiel
- durch Auswahl, Rückfragen und Präzisierung die relevanteste Anweisung für eine Benutzeranfrage ermitteln
- lange Dokumente in Teilen zusammenfassen und rekursiv eine vollständige Zusammenfassung erstellen
Dem Modell Zeit zum "Nachdenken" geben
Modelle machen mehr Denkfehler, wenn sie versuchen, sofort zu antworten. Wenn man das Modell auffordert, eine "Gedankenkette" zu bilden (Schritt für Schritt zu denken), bevor es antwortet, kann man ihm helfen, zuverlässiger zu richtigen Antworten zu kommen. Zu den Taktiken für diese Strategie gehören
- Das Modell wird aufgefordert, seine eigene Lösung zu finden, bevor es zu einer Schlussfolgerung kommt.
- Verwendung eines inneren Monologs oder einer Abfolge von Fragen, um den Denkprozess des Modells zu verbergen
- Fragen an das Modell, ob es bei früheren Durchgängen etwas übersehen hat