KI in der Praxis

OpenAI veröffentlicht Prompt-Guide für bessere ChatGPT- und LLM-Performance

Matthias Bastian
A 16:9 hand-drawn illustration showcasing a chatbot interface, stylized to look like it has superpowers. The interface is designed to appear as if it's glowing with energy, featuring vibrant colors and dynamic lines to suggest motion and power. The screen is filled with various icons and buttons that look futuristic and high-tech, each one pulsating with its own unique light. The background of the interface is a deep, rich color, contrasting with the bright, electric hues of the superpowered elements. The overall feel of the image should be one of advanced technology imbued with extraordinary capabilities.

DALL-E 3 prompted by THE DECODER

Prompting-Tipps direkt von der Quelle: OpenAI veröffentlicht eigenes Erfahrungswissen rund um das Prompting.

Im Zentrum der Prompting-Tipps stehen sechs Strategien, die OpenAI wie folgt unterteilt.

Klare Anweisungen geben

GPT-Modelle können keine Gedanken lesen, daher ist es wichtig, klare Anweisungen zu geben, um das gewünschte Ergebnis zu erzielen. Einige Taktiken, um klare Anweisungen zu geben.

Bereitstellung von Referenztexten

Sprachmodelle sind anfällig für falsche Antworten, insbesondere bei Fragen zu "esoterischen Themen" oder zu Zitaten und URLs. Die Bereitstellung von Referenztext kann dazu beitragen, die Anzahl falscher Antworten zu reduzieren. Taktiken für diese Strategie sind

Unterteilung komplexer Aufgaben in einfache Teilaufgaben

Da komplexe Aufgaben in der Regel höhere Fehlerquoten aufweisen als einfachere Aufgaben, kann es hilfreich sein, eine komplexe Aufgabe in eine Reihe modularer Komponenten zu zerlegen. Taktiken für diese Strategie sind zum Beispiel

Dem Modell Zeit zum "Nachdenken" geben

Modelle machen mehr Denkfehler, wenn sie versuchen, sofort zu antworten. Wenn man das Modell auffordert, eine "Gedankenkette" zu bilden (Schritt für Schritt zu denken), bevor es antwortet, kann man ihm helfen, zuverlässiger zu richtigen Antworten zu kommen. Zu den Taktiken für diese Strategie gehören

SYSTEM
Befolgen Sie diese Schritte zur Beantwortung der Benutzeranfragen.

Schritt 1 - Erarbeiten Sie zunächst Ihre eigene Lösung für das Problem. Verlassen Sie sich nicht auf die Lösung des Schülers/der Schülerin, da diese falsch sein könnte. Schließen Sie Ihre gesamte Arbeit für diesen Schritt in dreifache Anführungszeichen (""") ein.

Schritt 2 - Vergleichen Sie Ihre Lösung mit der Lösung des Schülers und beurteilen Sie, ob die Lösung des Schülers richtig ist oder nicht. Schließen Sie Ihre gesamte Arbeit für diesen Schritt in dreifache Anführungszeichen (""") ein.

Schritt 3 - Wenn der Schüler einen Fehler gemacht hat, überlegen Sie, welchen Hinweis Sie dem Schüler geben können, ohne die Antwort zu verraten. Schließen Sie Ihre gesamte Arbeit für diesen Schritt in dreifache Anführungszeichen (""") ein.

Schritt 4 - Wenn der Schüler/die Schülerin einen Fehler gemacht hat, geben Sie dem Schüler/der Schülerin den Hinweis aus dem vorherigen Schritt (außerhalb von Anführungszeichen). Anstatt "Schritt 4 - ..." schreiben Sie "Hinweis:".

BENUTZER
Problemstellung: <Problemaussage einfügen>

Schülerlösung: <Schülerlösung einfügen>

Beispiel-Prompt von OpenAI für einen inneren Monolog

Ausgefallenere Prompt-Zusätze wie "Atme tief durch" oder die Taktik, den Chatbot emotional unter Druck zu setzen, erwähnt OpenAI in diesem Zusammenhang nicht.

Externe Tools verwenden

Die typischen Schwächen großer Sprachmodelle können durch den Einsatz anderer Werkzeuge wie Textsuchsysteme oder Codeausführungsprogramme kompensiert werden. Sogenannte Sprachmodelle mit Werkzeugen sind potenziell wesentlich leistungsfähiger als reine Sprachmodelle. Zu den Taktiken dieser Strategie gehören

  • Verwendung einer eingebetteten Suche, um eine effiziente Wissensabfrage zu implementieren
  • Verwendung der Codeausführung, um genauere Berechnungen durchzuführen oder externe APIs aufzurufen.
  • Modellzugriff auf spezifische Funktionen

Darüber hinaus empfiehlt OpenAI, häufig verwendete Prompts durch gezielte Auswertungen zu evaluieren, anstatt sich bei der Qualitätsbeurteilung nur auf das eigene Bauchgefühl zu verlassen. Diese Auswertungen sollten der tatsächlichen Nutzung entsprechen, viele Testfälle enthalten und leicht automatisierbar oder wiederholbar sein, empfiehlt OpenAI.

Die Auswertung der Ergebnisse kann durch Computer, Menschen oder eine Mischung aus beiden erfolgen. OpenAI bietet hierfür die Open-Source-Software Evals an. Im Prompting-Guide von OpenAI gibt es für alle oben beschriebenen Szenarien Prompt-Beispiele. Weitere Grundlagen-Tipps und Prompt-Ideen gibt es in unserem Artikel zu ChatGPT Prompt-Strategien.

Quellen: