Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Prompting-Tipps direkt von der Quelle: OpenAI veröffentlicht eigenes Erfahrungswissen rund um das Prompting.
Anzeige
Im Zentrum der Prompting-Tipps stehen sechs Strategien, die OpenAI wie folgt unterteilt.
Klare Anweisungen geben
GPT-Modelle können keine Gedanken lesen, daher ist es wichtig, klare Anweisungen zu geben, um das gewünschte Ergebnis zu erzielen. Einige Taktiken, um klare Anweisungen zu geben.
Details in die Anfrage einfügen, um aussagekräftigere Antworten zu erhalten.
Dem Modell eine Rolle zuweisen
Verwendung von Begrenzungszeichen, um bestimmte Teile der Anfrage zu kennzeichnen
Die Schritte angeben, die erforderlich sind, um eine Aufgabe zu erledigen.
Beispiele bereitstellen
Die gewünschte Länge der Ausgabe angeben
Bereitstellung von Referenztexten
Sprachmodelle sind anfällig für falsche Antworten, insbesondere bei Fragen zu "esoterischen Themen" oder zu Zitaten und URLs. Die Bereitstellung von Referenztext kann dazu beitragen, die Anzahl falscher Antworten zu reduzieren. Taktiken für diese Strategie sind
Anzeige
Anzeige
THE DECODER Newsletter
Die wichtigen KI-News direkt ins E-Mail-Postfach.
✓ 1x wöchentlich
✓ kostenlos
✓ jederzeit kündbar
Anweisung an das Modell, auf der Grundlage eines Referenztextes zu antworten
Anweisung an das Modell, mit Zitaten aus einem Referenztext zu antworten
Unterteilung komplexer Aufgaben in einfache Teilaufgaben
Da komplexe Aufgaben in der Regel höhere Fehlerquoten aufweisen als einfachere Aufgaben, kann es hilfreich sein, eine komplexe Aufgabe in eine Reihe modularer Komponenten zu zerlegen. Taktiken für diese Strategie sind zum Beispiel
durch Auswahl, Rückfragen und Präzisierung die relevanteste Anweisung für eine Benutzeranfrage ermitteln
lange Dokumente in Teilen zusammenfassen und rekursiv eine vollständige Zusammenfassung erstellen
Dem Modell Zeit zum "Nachdenken" geben
Modelle machen mehr Denkfehler, wenn sie versuchen, sofort zu antworten. Wenn man das Modell auffordert, eine "Gedankenkette" zu bilden (Schritt für Schritt zu denken), bevor es antwortet, kann man ihm helfen, zuverlässiger zu richtigen Antworten zu kommen. Zu den Taktiken für diese Strategie gehören
Das Modell wird aufgefordert, seine eigene Lösung zu finden, bevor es zu einer Schlussfolgerung kommt.
Verwendung eines inneren Monologs oder einer Abfolge von Fragen, um den Denkprozess des Modells zu verbergen
Fragen an das Modell, ob es bei früheren Durchgängen etwas übersehen hat
SYSTEM
Befolgen Sie diese Schritte zur Beantwortung der Benutzeranfragen.
Schritt 1 - Erarbeiten Sie zunächst Ihre eigene Lösung für das Problem. Verlassen Sie sich nicht auf die Lösung des Schülers/der Schülerin, da diese falsch sein könnte. Schließen Sie Ihre gesamte Arbeit für diesen Schritt in dreifache Anführungszeichen (""") ein.
Schritt 2 - Vergleichen Sie Ihre Lösung mit der Lösung des Schülers und beurteilen Sie, ob die Lösung des Schülers richtig ist oder nicht. Schließen Sie Ihre gesamte Arbeit für diesen Schritt in dreifache Anführungszeichen (""") ein.
Schritt 3 - Wenn der Schüler einen Fehler gemacht hat, überlegen Sie, welchen Hinweis Sie dem Schüler geben können, ohne die Antwort zu verraten. Schließen Sie Ihre gesamte Arbeit für diesen Schritt in dreifache Anführungszeichen (""") ein.
Schritt 4 - Wenn der Schüler/die Schülerin einen Fehler gemacht hat, geben Sie dem Schüler/der Schülerin den Hinweis aus dem vorherigen Schritt (außerhalb von Anführungszeichen). Anstatt "Schritt 4 - ..." schreiben Sie "Hinweis:".
Die typischen Schwächen großer Sprachmodelle können durch den Einsatz anderer Werkzeuge wie Textsuchsysteme oder Codeausführungsprogramme kompensiert werden. Sogenannte Sprachmodelle mit Werkzeugen sind potenziell wesentlich leistungsfähiger als reine Sprachmodelle. Zu den Taktiken dieser Strategie gehören
Verwendung einer eingebetteten Suche, um eine effiziente Wissensabfrage zu implementieren
Verwendung der Codeausführung, um genauere Berechnungen durchzuführen oder externe APIs aufzurufen.
Modellzugriff auf spezifische Funktionen
Darüber hinaus empfiehlt OpenAI, häufig verwendete Prompts durch gezielte Auswertungen zu evaluieren, anstatt sich bei der Qualitätsbeurteilung nur auf das eigene Bauchgefühl zu verlassen. Diese Auswertungen sollten der tatsächlichen Nutzung entsprechen, viele Testfälle enthalten und leicht automatisierbar oder wiederholbar sein, empfiehlt OpenAI.
OpenAI veröffentlicht Tipps zum Prompting, unterteilt in sechs Strategien, um bessere Ergebnisse von KI-Sprachmodellen wie GPT-4 zu erzielen.
Die Strategien umfassen klare Anweisungen geben, Referenztext bereitstellen, komplexe Aufgaben in Unteraufgaben unterteilen, dem Modell Zeit zum "Nachdenken" geben, externe Tools verwenden und gezielte Auswertungen durchführen.
Diese Tipps sollen dazu beitragen, die Leistung von KI-Sprachmodellen zu verbessern und Benutzern helfen, effektivere und genauere Antworten von den Modellen zu erhalten.
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.