Inhalt
summary Zusammenfassung

Ein Forschungsteam von Meta und französischen Kliniken hat neuronale Sprachrepräsentationen bei Kindern untersucht – und zeigt, dass KI-Modelle ähnliche Lernverläufe durchlaufen wie das menschliche Gehirn.

Anzeige

Kinder benötigen nur wenige Millionen Wörter, um Sprache zu lernen. Die neuronalen Mechanismen dahinter sind bislang jedoch kaum verstanden. Eine neue Studie von Meta AI und dem Pariser Rothschild Hospital liefert nun Hinweise auf die Entwicklung sprachlicher Repräsentationen im Gehirn – und zeigt dabei überraschende Parallelen zu großen KI-Sprachmodellen.

Die Forscher untersuchten die Gehirnaktivität von 46 französischsprachigen Personen im Alter von 2 bis 46 Jahren. Alle Probanden hatten im Rahmen einer Epilepsiebehandlung Elektroden im Gehirn implantiert. Während die Teilnehmenden einem Hörbuch von „Der kleine Prinz“ lauschten, wurden über 7.400 Elektroden ausgelesen. Ziel war es, herauszufinden, wie sich Sprachverarbeitung im Gehirn entwickelt.

Die Ergebnisse zeigen: Bereits bei Kleinkindern zwischen zwei und fünf Jahren zeigten sich dabei erkennbare Reaktionen auf Sprache – etwa auf Laute wie „b“ oder „k“. Diese Reaktionen traten in bestimmten Hörzentren des Gehirns auf und waren zeitlich klar strukturiert. Die Verarbeitung von ganzen Wörtern, also deren Bedeutung oder Grammatik, zeigte sich dagegen erst bei älteren Kindern – und in anderen, weiterentwickelten Bereichen des Gehirns.

Anzeige
Anzeige

Mit zunehmendem Alter breiten sich diese Sprachverarbeitungen auf größere Teile des Gehirns aus. Die Reaktionen auf Wörter setzten früher ein, dauerten länger und waren stärker ausgeprägt – ein Zeichen dafür, dass die Sprachverarbeitung mit der Zeit immer komplexer wird.

KI-Modelle lernen Sprache wie das menschliche Gehirn – zumindest teilweise

Um besser zu verstehen, wie sich diese Repräsentationen entwickeln, verglichen die Forscher die neuronalen Daten mit den Aktivierungen zweier Sprachmodelle: wav2vec 2.0 – ein KI-Modell, das aus Audiosignalen Sprachmerkmale lernt – und dem großen Sprachmodell Llama 3.1. Beide Modelle wurden vor und nach dem Training untersucht.

Das Ergebnis: Nach dem Training glichen die Reaktionen der Modelle stärker denen im menschlichen Gehirn. Besonders wav2vec, das mit Ton gelernt hatte, zeigte eine stufenweise Verarbeitung – erst einfache Laute, dann komplexere Bedeutungen. Llama 3.1 hingegen arbeitete von Anfang an mit ganzen Wörtern, ähnlich wie das Gehirn von älteren Kindern und Erwachsenen.

Die Repräsentationen von Llama 3.1 finden sich laut dem Team nur im Gehirn von älteren Kindern und Erwachsenen. Bei Kleinkindern (2–5 Jahre) lassen sich diese Repräsentationen nicht nachweisen – vergleichbar mit dem frühen Zustand eines untrainierten Modells. Erst mit zunehmender Sprachexposition lassen sich LLM-ähnliche Aktivierungen im Gehirn beobachten.

Die Studienautoren - darunter Metas Jean-Rémi King - schließen daraus, dass sich die Entwicklung der Sprachverarbeitung im Gehirn und die Reifung von Sprachmodellen durch Training strukturell ähneln. Beide Systeme – biologisch und künstlich – scheinen eine vergleichbare Hierarchie sprachlicher Repräsentationen auszubilden, auch wenn LLMs dafür deutlich mehr Daten benötigen.

Empfehlung

Biologie bleibt effizienter – aber KI hilft beim Verständnis

Trotz dieser Parallelen bleiben klare Unterschiede: Während Kinder mit wenigen Millionen Wörtern Sprache erwerben, benötigen LLMs Milliarden. Zudem bleiben viele kognitive Fähigkeiten der KI verschlossen – etwa das Verständnis syntaktischer Abhängigkeiten oder semantischer Nuancen.

Dennoch zeigen die Ergebnisse, dass KI-Modelle dabei helfen können, die Entwicklung von Sprache im menschlichen Gehirn besser zu erforschen. Sie bieten eine neue Möglichkeit, Sprachverarbeitung über viele Altersstufen hinweg nachzuvollziehen – und ihre inneren Abläufe mit denen künstlicher Systeme zu vergleichen.

Eine wichtige Einschränkung: Kinder unter zwei Jahren konnten aus medizinischen Gründen nicht einbezogen werden – obwohl gerade diese frühen Lebensmonate für den Spracherwerb besonders wichtig sind.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Ein Forschungsteam von Meta und französischen Kliniken hat die Sprachverarbeitung im Gehirn von Kindern und Erwachsenen untersucht und dabei festgestellt, dass bereits Kleinkinder auf Sprachlaute reagieren, während komplexere Sprachverarbeitung erst bei älteren Kindern einsetzt.
  • Vergleiche mit KI-Modellen wie wav2vec 2.0 und Llama 3.1 zeigen, dass sich die Entwicklung neuronaler Sprachrepräsentationen im Gehirn und das Training von Sprachmodellen ähneln: Beide Systeme verarbeiten zunächst einfache Laute und später komplexere Bedeutungen, wobei LLM-artige Strukturen erst mit wachsender Sprachexposition im Gehirn nachweisbar sind.
  • Trotz struktureller Parallelen bleibt das menschliche Gehirn deutlich effizienter, da Kinder Sprache mit nur wenigen Millionen Wörtern erlernen, während Sprachmodelle Milliarden benötigen; KI-Modelle können dennoch helfen, die Entwicklung von Sprachverarbeitung im Gehirn besser zu verstehen.
Quellen
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!