Forschende der Johns Hopkins University haben eine einfache Methode gefunden, um Halluzinationen in großen Sprachmodellen zu verringern und die Genauigkeit ihrer Antworten zu verbessern. Durch das Hinzufügen von "according to" in Prompts ist es wahrscheinlicher, dass die Sprachmodelle gelernten Text zitieren und sachliche Informationen liefern, anstatt Antworten zu fabrizieren.
Eine Prüfung der Antworten verschiedener Sprachmodelle zeigt, dass die Genauigkeit der zitierten Informationen um 5 bis 15 % steigt, wenn Prompts wie "according to Wikipedia..." verwendet werden. Während die Technik bei verschiedenen LLMs gut funktioniert, ist sie bei größeren, auf Instruktionen abgestimmten Modellen am effektivsten.