Googles PaLM 2 wird besser in Mathe, wenn man das Sprachmodell erst einmal durchatmen lässt.

In einem Paper haben Forschende untersucht, ob sich Sprachmodelle wie GPT-4 oder PaLM 2 als Optimierer eignen, die automatisch Lösungen für vordefinierte Probleme finden, wie zum Beispiel Filmempfehlungen oder das Lösen von Grundschulmathematikaufgaben.

Dabei versuchten die Sprachmodelle, selbstständig die besten Prompts für ihre Aufgabe zu finden. Besonders kurios ist der Prompt, mit dem PaLM 2-L Matheaufgaben besonders gut löste: "Atme tief durch und arbeite Schritt für Schritt an diesem Problem". Ohne Durchatmen sank die Genauigkeit um fast zehn Punkte.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Quellen
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!