Inhalt
summary Zusammenfassung

Laut einer aktuellen Studie sind Large Language Models (LLMs) wie OpenAIs ChatGPT mächtige kulturelle Technologien, die eher imitieren als innovieren.

Anzeige

Die Forscher Eunice Yiu, Eliza Kosoy und Alison Gopnik betonen in ihrer in der Fachzeitschrift Perspectives on Psychological Science veröffentlichten Studie, dass LLMs bestehende menschliche Inhalte effizient nachahmen, indem sie Muster aus großen Datenmengen extrahieren und neue Antworten generieren.

LLMs seien mächtige Imitatoren, vergleichbar mit historischen Technologien wie Sprache, Schrift, Buchdruck, Bibliotheken und Internet, die den kulturellen Transfer und die Evolution gefördert haben.

Sie seien jedoch nicht auf die Wahrheitssuche ausgerichtet, wie menschliche Wahrnehmungs- oder Handlungssysteme, sondern auf die Extraktion und Übertragung von vorhandenem Wissen, oft ohne ein tiefes Verständnis der kausalen oder relationalen Aspekte der verarbeiteten Informationen.

Anzeige
Anzeige

Grenzen der KI-Innovation

Die Studie untersucht auch das Konzept der Innovation und legt nahe, dass LLMs nicht über die Fähigkeit zur Innovation verfügen, die bei jungen Kindern zu finden ist. Die Autoren verwendeten Werkzeuggebrauch und Innovation als Vergleichspunkt.

Sie stellten fest, dass KI-Modelle zwar vertraute Werkzeuganwendungen replizieren konnten, aber Schwierigkeiten hatten, bei Aufgaben, die das Erfinden neuer Werkzeuganwendungen oder das Entdecken neuer kausaler Zusammenhänge erforderten.

Tests mit Werkzeuggebrauch und kausalen Zusammenhängen ergaben, dass KI-Modelle im Vergleich zu Kindern Schwierigkeiten hatten, innovative Lösungen für Probleme zu entwickeln. Die Modelle konnten oberflächliche Gemeinsamkeiten zwischen Objekten identifizieren, waren jedoch weniger fähig, wenn es darum ging, ein neues funktionelles Werkzeug zur Problemlösung auszuwählen.

In der Studie wurde unter anderem ein virtueller "Blicket-Detektor" eingesetzt, eine Maschine, die auf bestimmte Objekte mit Licht und Musik reagiert, während sie bei anderen Objekten stumm bleibt. Die Forscher stellten fest, dass junge Kinder in der Lage waren, die kausale Struktur der Maschine mit wenigen Beobachtungen herauszufinden.

Im Gegensatz dazu scheiterten LLMs wie OpenAIs ChatGPT, Googles PaLM und LaMDA daran, die korrekten kausalen Überhypothesen aus den Daten abzuleiten. Trotz ihres umfangreichen Trainings konnten die LLMs im Vergleich zu Kindern nicht die relevanten Kausalstrukturen generieren. Dies zeigt ihre Grenzen bei der Ableitung von Schlussfolgerungen über neuartige Ereignisse oder Zusammenhänge.

Empfehlung

Kleine Kinder hingegen lernten neue kausale Überhypothesen aus nur einer Handvoll Beobachtungen, einschließlich der Ergebnisse ihrer eigenen experimentellen Eingriffe, und wandten die gelernte Struktur auf neue Situationen an. Im Gegensatz dazu hatten große Sprachmodelle und Seh- und Sprachmodelle sowie tiefe Algorithmen für das Verstärkungslernen und das Klonen von Verhalten Schwierigkeiten, die relevanten kausalen Strukturen zu erzeugen, selbst nach massivem Training im Vergleich zu Kindern.

Aus dem Paper

Überhypothesen oder übergreifende Hypothesen beziehen sich auf die Übertragung weitreichender und allgemeiner Regeln auf neue Situationen. Das Entdecken neuer Einsatzmöglichkeiten von Werkzeugen erfordert dagegen die kreative Suche nach neuen Kausalstrukturen oder Anwendungen für Objekte.

Skalierung allein genügt nicht

Die Autoren weisen darauf hin, dass LLMs sowohl einzigartige Eigenschaften als auch Herausforderungen für die Forschung mit sich bringen. Sie würden etwa durch bestärkendes Lernen mit menschlichem Feedback verfeinert, dessen Natur und Auswirkungen bisher nicht vollständig verstanden sind.

Ebenso argumentieren die Forscher, dass die Skalierung von Sprachmodellen zwar die Leistung bei verschiedenen Aufgaben verbessere, aber das nicht gleichbedeutend mit menschenähnlichem Lernen sei.

Die Studie kommt zu dem Schluss, dass große Sprachmodelle als kulturelle Technologien, die Millionen menschlicher Autoren imitieren können, wertvoll sind. Die Autoren warnen jedoch davor, dass diese KI-Modelle zwar helfen können, bekannte Informationen effizient zu verarbeiten, selbst aber nicht innovativ sind.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Sie schlagen vor, dass KI möglicherweise mehr als nur große Mengen an Sprach- und Bilddaten benötigt, um die Leistung eines menschlichen Kindes zu erreichen, und dass immer größere Modelle nicht die Lösung sind.

"Ein Kind interagiert nicht besser mit der Welt, indem es seine Gehirnkapazität vergrößert. Ist der Bau des höchsten Turms der beste Weg zum Mond? Was sind die Mechanismen, die es Menschen ermöglichen, effektiv und kreativ zu lernen, unabhängig von der Skalierung?", schreibt das Team.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Laut einer psychologischen Studie sind LLMs wie ChatGPT von OpenAI starke Imitatoren, die menschliche Inhalte nachahmen, aber nicht innovativ sind.
  • Die Studie vergleicht das Problemlösen von LLMs mit dem von Kleinkindern und stellt fest, dass KI-Modelle Schwierigkeiten haben, innovative Problemlösungen zu entwickeln, während Kinder aus wenigen Beobachtungen neue kausale Zusammenhänge lernen.
  • Die Autoren der Studie betonen, dass die Skalierung von Sprachmodellen nicht gleichbedeutend mit menschenähnlichem Lernen ist und dass immer größere Modelle wahrscheinlich nicht die Lösung für eine KI sind, die mindestens so effektiv lernt und versteht wie ein Kind.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!