Anzeige
Anzeige
Anzeige
Short

Forschende der Johns Hopkins University haben eine einfache Methode gefunden, um Halluzinationen in großen Sprachmodellen zu verringern und die Genauigkeit ihrer Antworten zu verbessern. Durch das Hinzufügen von "according to" in Prompts ist es wahrscheinlicher, dass die Sprachmodelle gelernten Text zitieren und sachliche Informationen liefern, anstatt Antworten zu fabrizieren.

Eine Prüfung der Antworten verschiedener Sprachmodelle zeigt, dass die Genauigkeit der zitierten Informationen um 5 bis 15 % steigt, wenn Prompts wie "according to Wikipedia..." verwendet werden. Während die Technik bei verschiedenen LLMs gut funktioniert, ist sie bei größeren, auf Instruktionen abgestimmten Modellen am effektivsten.

Anzeige
Anzeige
Anzeige
Anzeige
Short

Forscher haben herausgefunden, dass es möglich ist, Angriffe zu automatisieren, die große Sprachmodelle (LLMs) wie ChatGPT, Bard und Claude dazu bringen, unerwünschte und potenziell schädliche Inhalte bereitzustellen. Herkömmliche Jailbreaks erfordern einen erheblichen manuellen Entwicklungsaufwand und können in der Regel von den LLM-Anbietern behoben werden. Diese automatisierten Angriffe können jedoch in großer Zahl erstellt und auf quelloffene und öffentlich verfügbare Chatbots angewendet werden.

Ähnliche gegnerische Angriffe gibt es seit mehr als einem Jahrzehnt im Bereich des maschinellen Sehens. Nach Ansicht der Forscher ist das ein Zeichen dafür, dass solche Bedrohungen KI-Systemen innewohnen könnten. Sie weisen darauf hin, dass diese Art von Angriffen möglicherweise nicht vollständig verhindert werden kann.

Google News