Forschende der Johns Hopkins University haben eine einfache Methode gefunden, um Halluzinationen in großen Sprachmodellen zu verringern und die Genauigkeit ihrer Antworten zu verbessern. Durch das Hinzufügen von "according to" in Prompts ist es wahrscheinlicher, dass die Sprachmodelle gelernten Text zitieren und sachliche Informationen liefern, anstatt Antworten zu fabrizieren.

Eine Prüfung der Antworten verschiedener Sprachmodelle zeigt, dass die Genauigkeit der zitierten Informationen um 5 bis 15 % steigt, wenn Prompts wie "according to Wikipedia..." verwendet werden. Während die Technik bei verschiedenen LLMs gut funktioniert, ist sie bei größeren, auf Instruktionen abgestimmten Modellen am effektivsten.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Quellen
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!