Inhalt
summary Zusammenfassung

Forscher der Yale University haben untersucht, wie die Komplexität von Trainingsdaten die Leistungsfähigkeit von KI-Modellen beeinflusst. Die Ergebnisse deuten darauf hin, dass ein optimaler Komplexitätsgrad für die Entwicklung intelligenterer KI-Modelle existiert.

Anzeige

Eine neue Studie der Yale University legt nahe, dass die Komplexität der Trainingsdaten einen entscheidenden Einfluss auf die Entwicklung von Intelligenz in KI-Systemen hat. Die Forscher trainierten verschiedene Large Language Models (LLMs) mit Daten aus elementaren zellulären Automaten (ECAs) unterschiedlicher Komplexität und untersuchten anschließend deren Leistung bei Reasoning-Aufgaben und der Vorhersage von Schachzügen.

Elementare zelluläre Automaten sind eindimensionale Systeme, bei denen der Zustand jeder Zelle in der nächsten Generation von ihrem eigenen Zustand und dem ihrer beiden Nachbarn abhängt. Obwohl sie auf einfachen Regeln basieren, können ECAs ein breites Spektrum an Verhaltensweisen von trivial bis hochkomplex erzeugen.

Schematische Darstellung: Framework zur Untersuchung von Komplexität und Intelligenz mittels zellulärer Automaten, LLM-Training und Downstream-Tasks.
Das Framework untersucht den Zusammenhang zwischen Komplexität und Intelligenz durch die Vortrainierung von LLMs auf elementaren zellulären Automaten. Die Ergebnisse zeigen, wie unterschiedliche Komplexitätsklassen die Leistung bei Reasoning- und Schachaufgaben beeinflussen. | Bild: Zhang, Patel

Die Studie zeigt, dass Modelle, die auf das Verhalten von komplexeren ECA-Regeln trainiert wurden, bei nachgelagerten Aufgaben besser abschneiden. Eine besonders gute Leistung zeigten Modelle, die mit ECAs der Klasse IV nach der Wolfram-Klassifikation trainiert wurden. Deren Regeln erzeugen Muster, die weder vollständig geordnet noch vollständig chaotisch sind, sondern eine Art strukturierte Komplexität aufweisen.

Anzeige
Anzeige

Am Rande des Chaos

"Überraschenderweise stellen wir fest, dass Modelle komplexe Lösungen lernen können, wenn sie mit einfachen Regeln trainiert werden. Unsere Ergebnisse deuten auf einen optimalen Komplexitätsgrad oder 'Rand des Chaos' hin, der Intelligenz fördert und bei dem das System zwar strukturiert, aber schwer vorhersagbar ist", so die Autoren.

Modelle, die mit sehr einfachen ECAs trainiert wurden, neigten dazu, triviale Lösungen zu lernen. Im Gegensatz dazu entwickelten Modelle, die mit komplexeren ECAs trainiert wurden, anspruchsvollere interne Repräsentationen, selbst wenn einfachere Lösungen möglich gewesen wären. Die Autoren vermuten, dass diese Komplexität in den gelernten Repräsentationen ein Schlüsselfaktor ist, der es den Modellen ermöglicht, ihr Wissen auf andere Aufgaben zu übertragen.

Die Studie wirft auch Licht auf die Frage, warum große Sprachmodelle wie GPT-3 oder GPT-4 so leistungsfähig sind. Die Forscher vermuten, dass die enorme Menge und Vielfalt der Trainingsdaten dieser Modelle einen ähnlichen Effekt haben könnte wie die komplexen ECA-Regeln in ihrer Studie. Sie betonen jedoch, dass weitere Untersuchungen notwendig sind, um diese Hypothese zu bestätigen, und planen, ihre Experimente auf größere Modelle und komplexere Systeme auszudehnen.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Eine Studie der Yale University deutet darauf hin, dass die Komplexität der Trainingsdaten entscheidend für die Entwicklung von Intelligenz in KI-Systemen ist.
  • Modelle, die mit dem Verhalten komplexerer elementarer zellulärer Automaten (ECAs) trainiert wurden, schnitten bei späteren Aufgaben besser ab. Besonders gut waren Modelle, die mit ECAs der Klasse IV nach der Wolfram-Klassifikation trainiert wurden, deren Regeln eine strukturierte Komplexität erzeugen.
  • Die Forscher vermuten, dass die Komplexität in den gelernten Repräsentationen ein Schlüsselfaktor ist, der es den Modellen ermöglicht, ihr Wissen auf andere Aufgaben zu übertragen.
Quellen
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!