Inhalt
summary Zusammenfassung

Prompting-Tipps direkt von der Quelle: OpenAI veröffentlicht eigenes Erfahrungswissen rund um das Prompting.

Anzeige

Im Zentrum der Prompting-Tipps stehen sechs Strategien, die OpenAI wie folgt unterteilt.

Klare Anweisungen geben

GPT-Modelle können keine Gedanken lesen, daher ist es wichtig, klare Anweisungen zu geben, um das gewünschte Ergebnis zu erzielen. Einige Taktiken, um klare Anweisungen zu geben.

  • Details in die Anfrage einfügen, um aussagekräftigere Antworten zu erhalten.
  • Dem Modell eine Rolle zuweisen
  • Verwendung von Begrenzungszeichen, um bestimmte Teile der Anfrage zu kennzeichnen
  • Die Schritte angeben, die erforderlich sind, um eine Aufgabe zu erledigen.
  • Beispiele bereitstellen
  • Die gewünschte Länge der Ausgabe angeben

Bereitstellung von Referenztexten

Sprachmodelle sind anfällig für falsche Antworten, insbesondere bei Fragen zu "esoterischen Themen" oder zu Zitaten und URLs. Die Bereitstellung von Referenztext kann dazu beitragen, die Anzahl falscher Antworten zu reduzieren. Taktiken für diese Strategie sind

Anzeige
Anzeige
  • Anweisung an das Modell, auf der Grundlage eines Referenztextes zu antworten
  • Anweisung an das Modell, mit Zitaten aus einem Referenztext zu antworten

Unterteilung komplexer Aufgaben in einfache Teilaufgaben

Da komplexe Aufgaben in der Regel höhere Fehlerquoten aufweisen als einfachere Aufgaben, kann es hilfreich sein, eine komplexe Aufgabe in eine Reihe modularer Komponenten zu zerlegen. Taktiken für diese Strategie sind zum Beispiel

  • durch Auswahl, Rückfragen und Präzisierung die relevanteste Anweisung für eine Benutzeranfrage ermitteln
  • lange Dokumente in Teilen zusammenfassen und rekursiv eine vollständige Zusammenfassung erstellen

Dem Modell Zeit zum "Nachdenken" geben

Modelle machen mehr Denkfehler, wenn sie versuchen, sofort zu antworten. Wenn man das Modell auffordert, eine "Gedankenkette" zu bilden (Schritt für Schritt zu denken), bevor es antwortet, kann man ihm helfen, zuverlässiger zu richtigen Antworten zu kommen. Zu den Taktiken für diese Strategie gehören

  • Das Modell wird aufgefordert, seine eigene Lösung zu finden, bevor es zu einer Schlussfolgerung kommt.
  • Verwendung eines inneren Monologs oder einer Abfolge von Fragen, um den Denkprozess des Modells zu verbergen
  • Fragen an das Modell, ob es bei früheren Durchgängen etwas übersehen hat

SYSTEM
Befolgen Sie diese Schritte zur Beantwortung der Benutzeranfragen.

Schritt 1 - Erarbeiten Sie zunächst Ihre eigene Lösung für das Problem. Verlassen Sie sich nicht auf die Lösung des Schülers/der Schülerin, da diese falsch sein könnte. Schließen Sie Ihre gesamte Arbeit für diesen Schritt in dreifache Anführungszeichen (""") ein.

Schritt 2 - Vergleichen Sie Ihre Lösung mit der Lösung des Schülers und beurteilen Sie, ob die Lösung des Schülers richtig ist oder nicht. Schließen Sie Ihre gesamte Arbeit für diesen Schritt in dreifache Anführungszeichen (""") ein.

Schritt 3 - Wenn der Schüler einen Fehler gemacht hat, überlegen Sie, welchen Hinweis Sie dem Schüler geben können, ohne die Antwort zu verraten. Schließen Sie Ihre gesamte Arbeit für diesen Schritt in dreifache Anführungszeichen (""") ein.

Schritt 4 - Wenn der Schüler/die Schülerin einen Fehler gemacht hat, geben Sie dem Schüler/der Schülerin den Hinweis aus dem vorherigen Schritt (außerhalb von Anführungszeichen). Anstatt "Schritt 4 - ..." schreiben Sie "Hinweis:".

BENUTZER
Problemstellung: <Problemaussage einfügen>

Schülerlösung: <Schülerlösung einfügen>

Beispiel-Prompt von OpenAI für einen inneren Monolog

Ausgefallenere Prompt-Zusätze wie "Atme tief durch" oder die Taktik, den Chatbot emotional unter Druck zu setzen, erwähnt OpenAI in diesem Zusammenhang nicht.

Externe Tools verwenden

Die typischen Schwächen großer Sprachmodelle können durch den Einsatz anderer Werkzeuge wie Textsuchsysteme oder Codeausführungsprogramme kompensiert werden. Sogenannte Sprachmodelle mit Werkzeugen sind potenziell wesentlich leistungsfähiger als reine Sprachmodelle. Zu den Taktiken dieser Strategie gehören

  • Verwendung einer eingebetteten Suche, um eine effiziente Wissensabfrage zu implementieren
  • Verwendung der Codeausführung, um genauere Berechnungen durchzuführen oder externe APIs aufzurufen.
  • Modellzugriff auf spezifische Funktionen

Darüber hinaus empfiehlt OpenAI, häufig verwendete Prompts durch gezielte Auswertungen zu evaluieren, anstatt sich bei der Qualitätsbeurteilung nur auf das eigene Bauchgefühl zu verlassen. Diese Auswertungen sollten der tatsächlichen Nutzung entsprechen, viele Testfälle enthalten und leicht automatisierbar oder wiederholbar sein, empfiehlt OpenAI.

Die Auswertung der Ergebnisse kann durch Computer, Menschen oder eine Mischung aus beiden erfolgen. OpenAI bietet hierfür die Open-Source-Software Evals an. Im Prompting-Guide von OpenAI gibt es für alle oben beschriebenen Szenarien Prompt-Beispiele. Weitere Grundlagen-Tipps und Prompt-Ideen gibt es in unserem Artikel zu ChatGPT Prompt-Strategien.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • OpenAI veröffentlicht Tipps zum Prompting, unterteilt in sechs Strategien, um bessere Ergebnisse von KI-Sprachmodellen wie GPT-4 zu erzielen.
  • Die Strategien umfassen klare Anweisungen geben, Referenztext bereitstellen, komplexe Aufgaben in Unteraufgaben unterteilen, dem Modell Zeit zum "Nachdenken" geben, externe Tools verwenden und gezielte Auswertungen durchführen.
  • Diese Tipps sollen dazu beitragen, die Leistung von KI-Sprachmodellen zu verbessern und Benutzern helfen, effektivere und genauere Antworten von den Modellen zu erhalten.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!