KI-Forschung

Neue Prompt-Methode lässt GPT-3 Fragen besser beantworten

Matthias Bastian

DALL-E 2 prompted by THE DECODER

Forschende stellen eine neue Prompt-Methode vor, mit der GPT-3 komplexere Fragen besser beantworten kann.

Die Forschenden nennen ihre Methode "Self-Ask": Anstatt eine Frage direkt zu beantworten, stellt sich das Sprachmodell eigenständig Folgefragen, deren Antworten zur finalen Antwort hinleiten. Das verbessert GPT-3s Fähigkeit, komplexe Fragen durch eine argumentative Vorgehensweise korrekt zu beantworten.

Die Selbstbefragung läuft vollautomatisch ab: Die erste Eingabe gibt ein Beispiel für den Selbstbefragungsprozess und stellt dann die eigentliche Frage. GPT-3 wendet den Prozess eigenständig auf die neue Frage an und stellt so viele Nachfragen, wie die Beantwortung der finalen Frage benötigt.

Self-Ask setzt auf dem Chain-of-Thought-Prompting auf, unterteilt den Prozess durch die Folgefragen aber in mehrere kleine Ausgaben, anstatt eine fortlaufende, nicht abgrenzbare Gedankenkette auszugeben.

Self-Ask verbessert GPT-3-Antworten

Die Forschenden untersuchten mit ihrer Methode auch etwas, das sie "Kompositionalitätslücke" nennen. Das ist die (Un)Fähigkeit großer Sprachmodelle, Teilfragen zwar korrekt zu beantworten, aber daraus für die Antwort auf die finale Frage eine falsche Schlussfolgerung zu ziehen.

Ein Beispiel ist die Frage nach dem amtierenden US-Präsidenten zum Zeitpunkt der Erfindung der Supraleiter. Dafür muss GPT-3 zunächst ermitteln, wann Supraleiter entdeckt wurden, um dann zu prüfen, welcher US-Präsident zu diesem Zeitpunkt im Amt war.

Bei diesem Beispiel scheitern das direkte Prompting und das Chain-of-Thought-Prompting, während die Self-Ask-Methode zum richtigen Ergebnis führt (siehe folgende Grafik).

Bild: Ofir Press et al.

Laut der Forschenden kann Self-Ask die zuvor beschriebene Kompositionalitätslücke in GPT-3 Modellen abhängig vom getesteten Modell verkleinern und zum Teil sogar schließen. Heißt im Klartext: GPT-3 beantwortet mit der Self-Ask-Methode komplexe Fragen mit höherer Wahrscheinlichkeit korrekt.

Genauigkeit steigt mit integrierter Google-Suche

Die Kombination aus der Self-Ask-Methode mit einer Google-Suche generiert noch verlässlicher korrekte Antworten. Dabei sucht das Sprachmodell die Antwort auf eine einfache Zwischenfrage bei Google und speist sie wieder in den Self-Ask-Prozess ein. Sind alle Zwischenfragen beantwortet, entscheidet das Sprachmodell über die finale Antwort.

Bei Tests mit verschiedenen mehrstufigen Frage-Datensätzen schneiden sowohl Self-Ask als auch Self-Ask mit Google-Suche signifikant besser ab als direkte Prompts, Chain-of-Thought-Prompts und direkte Google-Suchen. Im letzteren Fall wurde eine mögliche Snippet-Ausgabe oder Text aus dem ersten Suchergebnis als Antwort gezählt.

Self-Ask mit und ohne Google-Suche generiert mehr richtige Antworten auf zweistufige Fragen. | Bild: Ofir Press et al.

Laut des Forschungsteams kann GPT-3 in Kombination mit Google Fragen beantworten, die GPT-3 oder Google nicht allein beantworten könnten. GPT-3 wurde 2019 trainiert, aktuelle Informationen sind nicht im Modell hinterlegt.

Bezüglich der Kompositionalitätslücke hatten die Forschenden eine weitere interessante Erkenntnis: Die Lücke wurde mit zunehmender Größe der Modelle nicht kleiner. Die Forschenden schlussfolgern aus diesem "überraschenden Ergebnis", dass größere Modelle zwar mehr Informationen speichern und abrufen, aber bei der Qualität der Schlussfolgerungen keine Vorteile gegenüber kleineren Modellen haben.

OpenAI (WebGPT), Deepmind (Sparrow) und Meta (Blenderbot 3) stellten bereits auf großen Sprachmodellen basierende Chatbots vor, die ebenfalls im Internet Antworten auf Fragen von Nutzenden recherchieren können.

Quellen: