Inhalt
newsletter Newsletter

Die Techwelt scheint uneins, wie klug Künstliche Intelligenz wirklich ist und welche Veränderungen KI für die Menschen bedeuten kann. Yann LeCun ist Direktor der KI-Forschung bei Facebook und glaubt, dass eine generelle künstliche Intelligenz noch weit entfernt ist.

Anzeige

Vor wenigen Tagen stellte Google neue Forschungsergebnisse vor: Die aktuelle Version der KI AlphaGo wurde mit einem Verfahren programmiert, dank dem sie nicht mehr auf menschliche Hilfe angewiesen ist, um das komplexe Brettspiel Go zu lernen. Im Training gegen sich selbst lernte die KI das Spiel innerhalb weniger Tage viel schneller und umfassender als es einem Menschen jemals möglich wäre.

Die Google-Wissenschaftler gehen von einem Durchbruch aus: Das Verfahren könne mit Anpassungen auf andere Bereiche angewandt werden, beispielsweise die medizinische Forschung. So könnten innerhalb weniger Jahre Erkenntnisse gewonnen werden, für die Menschen Jahrzehnte forschen müssten.

Mit einer generellen Intelligenz nach dem Vorbild des Menschen hat das laut Facebooks KI-Chef Yann LeCun dennoch nichts zu tun. Er wolle die Leistung der Kollegen bei Google Deepmind nicht schmälern, so LeCun, aber das Forschungsergebnis sei kein signifikanter Fortschritt hin zu einer fortschrittlichen künstlichen Intelligenz, die außerhalb menschlicher Vorgaben agieren kann.

Anzeige
Anzeige

"Nur weil es eine Maschine gibt, die Menschen in Go besiegen kann, laufen keine intelligenten Roboter über die Straße", sagt LeCun der Webseite The Verge. Die Google-Forschung würde nicht im Ansatz dazu beitragen, dieses Problem zu lösen. LeCun räumt allerdings ein, dass es unterschiedliche Meinungen dazu gebe.

Ratten sind klüger als KI-Systeme

Laut LeCun ist die Menschheit "sehr weit" davon entfernt, Maschinen zu erfinden, die ähnlich wie Menschen oder Tiere lernen. In bestimmten Anwendungsszenarien könnten KI-Systeme übermenschliche Fähigkeiten entwickeln, aber im Kontext einer generellen Intelligenz "sind wir nicht mal ansatzweise auf dem Niveau einer Ratte". Entsprechend seien Szenarien zur KI-Apokalypse verfrüht.

"Das heißt nicht, dass es keine Gefahren gibt, aber nicht kurz- oder mittelfristig. Es gibt echte Gefahren bei KI, aber das sind keine Terminator-Szenarien", so LeCun, der sich darüber mokiert, dass die mediale Berichterstattung beim KI-Thema nicht ohne Terminator-Bild auskäme.

Kluge KIs bräuchten ein Verständnis für die Welt

Selbstständige Lernverfahren würden nur in einfachen Szenarien funktionieren, sagt LeCun. Im Falle von AlphaGo habe die KI innerhalb weniger Tage Millionen von Spielen durchlaufen. Das seien wahrscheinlich mehr Partien, als die gesamte Menschheit je gespielt hätte. Möglich sei das nur, da das Go-Spiel ohne großen Aufwand auf vielen Rechnern in hoher Geschwindigkeit simuliert werden kann. "Das geht nicht mit der echten Welt, weil man die echte Welt nicht beschleunigen kann", sagt LeCun.

Dafür brauche es Maschinen, die mittels Lernverfahren ihr eigenes internes Modell der Welt bauen, um es dann in Hochgeschwindigkeit zu simulieren. Bislang gebe es in der Wissenschaft keinen passenden Ansatz dafür.

Empfehlung

Er nennt ein Beispiel: "Wenn ein Mensch Fahrstunden nimmt, weiß er, dass es schlecht ist, gegen einen Baum zu fahren. Unser Verständnis von der Welt sagt uns, dass wir das Auto auf der Straße halten müssen", sagt LeCun. "Eine selbstständig lernende KI müsste das Auto erst einmal 40.000 Mal gegen den Baum fahren, bis sie versteht, dass das eine schlechte Idee ist." Es brauche Grundlagenforschung, um für generelle Szenarien neue KI-Verfahren zu entwickeln.

Virtuelle Assistenten als die nächste große Sache

Im Gegensatz zu Apple und Google hat Facebook noch kein virtuelles Assistenzsystem am Markt, arbeitet jedoch daran. Die nächste Generation der Chatroboter soll Lernverfahren stärker integrieren und sich aus der starren Baumstruktur aktueller Assistenten lösen.

LeCun geht davon aus, dass digitale Assistenten immer besser werden und Nutzer nicht mehr frustrieren. Sie hätten zukünftig mehr Hintergrundwissen und könnten Antworten außerhalb der vom Designer vorprogrammierten Skripts geben. Laut LeCun sollen KI-Systeme einen langen Text lesen und anschließend Fragen zu diesem beantworten können. "Das ist sehr interessant für Facebook."

Der Schritt danach seien KI-Systeme mit einem generellen Verständnis für die Welt, dieses sei jedoch nicht allein durch Beobachtung erreichbar. Diese Hürde zu überwinden ist laut LeCun in den kommenden Jahren die "kritische Herausforderung" für die Wissenschaft und die Techbranche. Er spricht in diesem Kontext von "vorhergesagtem Lernen", andere würde es "unbeaufsichtigtes Lernen" nennen.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
| Featured Image: Von Runner1928 - Eigenes Werk, CC BY-SA 3.0, Link
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!