Inhalt
summary Zusammenfassung

Forscher haben herausgefunden, dass spezielle KI-Modelle komplizierte Aufgaben genauso gut lösen können, wenn sie statt ganzer Sätze nur Punkte wie "......" verwenden. Das könnte es schwieriger machen, zu kontrollieren, was in diesen Modellen vor sich geht.

Forschende des Center for Data Science der New York University trainierten Llama-Sprachmodelle darauf, eine knifflige Matheaufgabe namens "3SUM" zu lösen. Dabei muss das Modell drei Zahlen finden, die zusammen null ergeben.

Normalerweise lösen KI-Modelle solche Aufgaben, indem sie Schritt für Schritt in ganzen Sätzen erklären, wie sie vorgehen - das sogenannte "Chain of thought"-Prompting. Die Forscher ersetzten diese Erklärungen in natürlicher Sprache jedoch durch die Wiederholung von Punkten.

Überraschenderweise waren die Modelle mit Punkten genauso gut wie die Modelle mit Erklärungen. Je schwieriger die Aufgaben wurden, desto besser waren die Modelle mit Punkten im Vergleich zu den Modellen, die direkt antworteten, ohne zwischendurch nachzudenken.

Anzeige
Anzeige
Die drei Prompting-Methoden, die in der Studie verglichen wurden.
Die drei Prompting-Methoden, die in der Studie verglichen wurden. | Bild: Jacob Pfau, William Merrill & Samuel R. Bowman

Die Forscher stellten fest, dass die Modelle die Punkte tatsächlich für Berechnungen nutzten, die für die Aufgabe wichtig waren. Je mehr Punkte dem Modell zur Verfügung standen, desto genauer war die Antwort. Dies deutet darauf hin, dass mehr Punkte dem Modell mehr "Denkkapazität" geben könnten.

Sie vermuten, dass die Punkte wie Platzhalter sind, in die das Modell verschiedene Zahlen einsetzt und prüft, ob sie die Bedingungen der Aufgabe erfüllen. Auf diese Weise kann das Modell sehr komplexe Fragen beantworten, die es nicht auf einmal lösen könnte.

Das Ergebnis geht in eine ähnliche Richtung wie ein kürzlich veröffentlichtes Forschungsergebnis, das zeigt, dass längere Chain-of-Thought-Prompts die Ergebnisse von Sprachmodellen verbessern können - auch wenn die Verlängerung in den Prompts keinen inhaltlichen Bezug zum Thema hat, es sich also nur um eine Tokenvermehrung handelt.

Verborgene Denkprozesse als KI-Sicherheitsrisiko

Mitautor Jacob Pfau sagt, dass dieses Ergebnis eine wichtige Frage im Kontext der Sicherheit von KI aufwirft: Wenn KI-Systeme in Zukunft immer mehr im Verborgenen "denken", wie können wir dann sicherstellen, dass sie zuverlässig und sicher sind?

Beliebte Chatbots wie ChatGPT beherrschen den Trick mit den Punkten nicht automatisch. Sie müssen dafür trainiert werden. Hier ist also weiter Chain-of-Thought-Prompting angesagt.

Empfehlung

Die Forscher gehen davon aus, dass es in Zukunft sinnvoll sein könnte, KI-Systemen von Anfang an beizubringen, wie sie mit Punkten umgehen sollen, auch wenn dieser Prozess anspruchsvoll sei. Sinnvoll könnte es sein, wenn die Probleme, die LLMs lösen sollen, sehr komplex sind und nicht in einem Schritt gelöst werden können.

Außerdem müssen die Daten, mit denen die KI trainiert wird, genügend Beispiele enthalten, in denen das Problem in kleinere Teile zerlegt ist, die gleichzeitig bearbeitet werden können.

Wenn diese Bedingungen erfüllt sind, könnte die Punktmethode auch in normalen KI-Systemen eingesetzt werden. Das könnte ihnen helfen, schwierige Fragen zu beantworten, ohne dass es direkt an ihren Antworten erkennbar wäre.

Das Punktesystem-Training soll allerdings anspruchsvoll sein, weil unklar ist, was genau die KI mit den Punkten berechnet, und weil die Punktmethode nicht gut für Erklärungen geeignet ist, die eine bestimmte Schrittfolge erfordern.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Forscher haben herausgefunden, dass KI-Modelle komplexe Aufgaben wie "3SUM" lösen können, indem sie anstelle von Sätzen einfache Punkte wie "......" verwenden. Je mehr Punkte zur Verfügung stehen, desto genauer sind die Ergebnisse.
  • Die Punkte fungieren vermutlich als Platzhalter, in die das Modell verschiedene Zahlen einsetzt und prüft, ob sie die Bedingungen erfüllen. Auf diese Weise können sehr komplexe Fragen beantwortet werden, die nicht auf einen Schlag gelöst werden können.
  • Dieser "versteckte Denkprozess" wirft nach Ansicht der Forscher Sicherheitsfragen auf, wenn KI-Systeme im Verborgenen "denken".
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!