Dieser Artikel wurde zuerst publiziert am 01.09.2019. Aktualisiert am 4.09.2021.
Weshalb lernen Tiere und Menschen so viel effizienter als Maschinen? Ein Neurowissenschaftler hat eine Idee: Es geht um genetisch angelegte Gehirnbaupläne.
Am Anfang der KI-Entwicklung existierte das große Versprechen: KI werde innerhalb von Jahrzehnten menschliche Intelligenz erreichen und unsere Jobs übernehmen – so sahen es viele Teilnehmer der Darthmouth Konferenz 1956, die als Geburtsstunde Künstlicher Intelligenz gilt.
Doch der große Durchbruch kam nicht und die KI-Forschung erlebte zwei KI-Winter, in denen Forschungsgelder gestrichen und Forschungsprogramme eingestampft wurden.
Ein neuer Hoffnungsträger befeuert seit circa 2010 den neuen KI-Optimismus: Vielschichtige, tiefe künstliche neuronale Netze. Sie treiben Maschinen an, die sehen, sprechen, übersetzen oder autonom fahren können.
Doch ist diese Technologie auch der Pfad zu einer menschenähnlichen Intelligenz oder gar einer Super-Intelligenz? Wohl eher nicht: Aktuelle KI-Systeme sind Spezialisten und so in ihren Fähigkeiten eingeschränkt.
Sie schlagen zwar Weltmeister im Strategiespiel Go, weil sie stark sind in Statistik und der Musteranalyse. Sie sind aber noch weit von den kognitiven Kapazitäten eines Kleinkindes entfernt. Es existiert keine Spur von künstlicher genereller Intelligenz, die auf viele Aufgaben anwendbar wäre.
Die Natur lernt effizienter
Doch woran liegt das? Für KI-Pioniere wie Yann LeCun oder Geoffrey Hinton ist die Antwort klar: Das häufig eingesetzte überwachte Lernen hat nichts mit dem biologischen Lernen gemein, das viel erfolgreicher und vergleichsweise unerforscht ist.
Ein einfaches Zahlenspiel verdeutlicht das: Aktuelle Bilderkennungs-KIs werden mit bis zu zehn Millionen Bildern trainiert. Jedes Bild enthält eine Beschriftung: Eine Katze ist als Katze markiert, eine Tasse als Tasse. So lernt die KI in einer Art Frage-und-Antwort-Spiel, Objekte zu identifizieren.
Ein Kleinkind müsste ein Jahr lange alle drei Sekunden eine Frage stellen, um die gleiche Menge beschrifteter Daten zu verarbeiten. Und das nur, damit es einige Objekte im Alltag verlässlich erkennt. Das wäre nicht sehr effizient.
Doch es gibt eine mögliche Lösung für das maschinelle Lernproblem: Das unüberwachte Lernen.
Zeigt unüberwachtes Lernen den Pfad zur Super-KI?
In den Worten LeCuns: "Wenn Intelligenz ein Kuchen ist, ist der Großteil des Kuchens unüberwachtes Lernen, das Sahnehäubchen ist überwachtes Lernen und die Kirsche ist bestärkendes Lernen."
Beim unüberwachten Lernen hat die KI keinen Zugriff auf beschriftete Daten. Stattdessen muss sie statistische Regelmäßigkeiten im Datensatz selbstständig entdecken. Sieht sie genügend Bilder von Katzen und Hunden, kann sie diese irgendwann auseinanderhalten.
Möglicherweise braucht also ein Baby keine beschrifteten Daten, da es über seine Sinne genügend Rohdaten zur Verfügung hat, unzählige Eindrücke pro Sekunde. Das könnte den schnellen Lernprozess von Menschen erklären.
Die Natur hat einen anderen Plan
Müssen wir also nur den Datenhahn weiter aufdrehen und parallel einen bisher unentdeckten, mächtigen Allzweckalgorithmus finden, der KIs jede Art von Handlung unüberwacht beibringt?
Der Neurowissenschaftler Anthony Zador glaubt nicht an einen solchen Algorithmus: "Das Gehirn ist kein leeres Blatt, das mit einem universellen Lernalgorithmus - bereit alles zu lernen - ausgestattet ist", schreibt Zador.
Es existiere ein großer Selektionsdruck auf Tiere, ihr Lernen auf das zu beschränken, was für ihr Überleben wichtig sei.
Angeborenes Verhalten und gelerntes Wissen
Ein Blick in die Natur zeige, dass viele Verhaltensweisen und Sinneseindrücke angeboren seien. So können etwa Gerüche attraktiv oder abstoßend wirken: Blut wird von Haien als appetitanregend wahrgenommen, Fuchsurin stößt Ratten ab.
Und der Großteil des Verhaltensrepertoires von Insekten und anderen kurzlebigen Tieren ist nicht Teil eines clever lernenden Algorithmus – es ist ein Verhaltensprogramm, von Geburt an integriert.
Dieses angeborene Verhalten ist aus evolutionärer Sicht vorteilhaft, da keine Zeit oder andere Ressourcen für einen Lernprozess aufgewendet werden müssen.
Effiziente Lernprozesse retten Leben
Solche angeborenen Verhaltens- und Sinnesgrundlagen finden sich auch bei jenen Lebewesen, die ihre Überlebenschancen durch Lernen erhöhen können. Tiere, die von Früchten leben, haben eine angeborene Tendenz, nach diesen zu suchen – aber die Standorte der Früchte in ihrer Umgebung müssen sie selbst herausfinden.
Dieses Zusammenspiel von angeborenem und gelerntem Verhalten oder Sinneseindrücken existiert auch beim Menschen: Babys können schon kurz nach ihrer Geburt Gesichter auseinanderhalten und identifizieren. Dafür ist eine während der Entwicklung entstandene spezielle Region in ihrem Gehirn zuständig. Doch welche Gesichter ein Baby erkennt, wird erst im Laufe des Lebens gelernt. Bei Sprachen läuft ein ähnlicher Prozess.
Die geheime Zutat der Natur
Diese überall zu findenden und durch evolutionären Druck entstandenen angeborenen Mechanismen seien das Geheimrezept der Natur – und nicht etwa unbekannte, mächtige Algorithmen, sagt Zador.
Kodiert sind die Mechanismen im Genom. Doch dort ist kein Platz für detaillierte Schaltpläne eines Gehirns: Zador spricht vom genomischen Engpass.
Die Evolution habe sich daher vermutlich etwas anderes ausgedacht: Regeln für die Verschaltung des Nervensystems.
Nervenschaltplan könnte neue KI-Architekturen aufdecken
Die Weitergabe erfolgreichen Verhaltens und nützlicher Sinneseindrücke durch den genomischen Engpass könne daher Regeln hervorgebracht haben, die genereller seien und sich gut verallgemeinern ließen. Dafür spreche etwa die Ähnlichkeit der Vernetzung des visuellen und des auditiven Kortex.
Klar sei: In der Natur arbeiten im Genom kodierte, angeborene Mechanismen in Synergie mit Lernfähigkeiten. Es liegt für Zador nahe, dass auch die KI-Forschung von solchen angeborenen Mechanismen profitieren könnte – im KI-Kontext würde man von neuen Architekturen sprechen.
Es sei möglich, dass durch solche Nervenschaltpläne neue generalisierende und mächtige KI-Architekturen gefunden werden. Im Gehirn könnten solche Schaltkreise in Zukunft von der experimentellen Neurowissenschaft aufgedeckt werden, schreibt Zador.
KI-Forscher schauen ohnehin bei der Natur ab
Zador schlägt letztlich neurowissenschaftlich begründete Netzwerkarchitekturen vor, die in der KI-Forschung umfassende Fortschritte möglich machen sollen.
Für Zadors These spricht die Vergangenheit: Der aktuelle KI-Boom wäre ohne künstliche neuronale Netze unmöglich gewesen – und die sind ebenfalls von Arbeitsprozessen im Gehirn inspiriert.
Gleiches gilt für einen der größten KI-Fortschritte der letzten Jahrzehnte: Die von Yann LeCun erfundenen "Convolutional Neural Networks" orientieren sich an biologischen Prozessen im visuellen Kortex. Sie sind maßgeblich am aktuellen KI-Hype beteiligt und treiben die Bilderkennungs-KIs an, die etwa Lungenkrebs entdecken oder autonome Autos sehen lassen.
Für diese Erfindung erhielt LeCun im März neben Geoffrey Hinton und Yoshua Bengio den Turing-Award, die höchste Auszeichnung der Informatik.