Facebook KI-Chef: Schlecht gemachte KI ist die gefährlichste
Als KI-Chefwissenschaftler beeinflusst Yann LeCun Facebooks Strategie für Künstliche Intelligenz. In einem aktuellen Interview spricht er über die eigentliche Gefahr aktueller KI-Technik, die es nicht in Sci-Fi-Dystopien schafft.
Ein Killerroboter reist in die Vergangenheit, um dort den menschlichen Widerstand gegen Maschinen an der Wurzel auszureißen. Eine Stimme aus dem Nichts gebietet unsichtbar über unser Schicksal, kontrolliert jeden unserer Schritte, längst selbst jeglicher Kontrolle entflohen. Ein allmächtiges KI-Wesen sperrt die Menschheit in eine Simulation, um sie in der Realität als Energieressource in Überlebenstanks zu halten.
So oder so ähnlich sehen gängige Science-Fiction-Erzählungen für unsere Zukunft mit Künstlicher Intelligenz aus. Die Vorstellung vieler Menschen ist von diesen KI-Dystopien geprägt.
Science-Fiction-Dystopie vs. reale Bedrohung
"Bei jeder neuen Technologie haben Menschen Angst, dass sie die gesellschaftlichen Verhältnisse durcheinanderwirft. Und genau das tut Technologie! Meist verändert sie die Welt zum Guten. Bei KI ist die Angst etwas größer, weil wir von Science-Fiction-Filmen geprägt sind", sagt LeCun dem Spiegel.
Die Realität sei aber eine andere: "KI fehlt das, was wir guten Menschenverstand nennen. In diesem Sinne ist sie sehr beschränkt."
Aus dieser Beschränktheit leitet LeCun die eigentliche KI-Gefahr ab: "Was wir an KI eher fürchten sollten, ist, dass sie nicht gut genug funktioniert."
KI-Risiko: Zu gehorsame Roboter
Wer die KI-Entwicklung aufmerksam verfolgt, findet Beispiele für die von LeCun erwähnte schlecht funktionierende KI: Algorithmen, die Klickverhalten einseitig beeinflussen und Nutzer in eindimensionalen Themenwelten gefangen halten. Rassistische oder sexistische menschliche Vorurteile in Daten für das KI-Training, die von den Systemen unreflektiert übernommen und ausgeführt werden.
Die Dystopie eines totalitären Überwachungsstaates, die sich durch die automatisierte Mustererkennung von KI-Systemen - beispielsweise für die Gesichtserkennung - erfüllen könnte. Eine zunehmende Ungleichheit zwischen Ländern, die KI für ökonomische Zwecke nutzen und solchen, die keinen Zugang zum maschinellen Lernen haben. Das sind die akuten Risikopotenziale bei der KI-Entwicklung.
Hinzu kommt das übergeordnete Drohszenario, dass Menschen KI durch ungenau vorgegebene Ziele falsch einsetzen. Das Resultat wäre ein KI-System, das unaufhaltsam und stumpf sein Ziel verfolgt, selbst dann, wenn es so der Menschheit schadet, sie vielleicht sogar ausradiert.
"Ich habe viel mehr Sorge vor Robotern, die allen Befehlen gehorchen, als vor solchen, die rebellieren", sagte der Historiker Yuval Noah Harari im letzten Jahr in einem Interview mit Facebook-Chef Mark Zuckerberg.
LeCun öffnete Facebooks KI-Forschung
Ähnlich sieht es auch LeCun: Jede Technologie könne für gute und schlechte Zwecke eingesetzt werden. Auf seiner Forschung basierten beispielsweise KI-gestützte Bremssysteme, die ein Kind auf der Straße erkennen und eine Vollbremsung einleiten könnten. Autoritäre Regime hingegen könnten KI für die Massenüberwachung nutzen.
"Es hängt von der Stärke unserer demokratischen Institutionen ab, wie Technologie eingesetzt wird", sagt LeCun. Er lehne es ab, an Waffen und an geheimen Projekten zu forschen. Seine Einstiegsbedingung als KI-Forscher bei Facebook sei daher die öffentliche Publizierung wissenschaftlicher Ergebnisse gewesen.
"Alles, was wir für Facebook erforschen, wird veröffentlicht, in den meisten Fällen als offener Quellcode. Nur so können wir die besten Forschenden anwerben", sagt LeCun. Und fügt später hinzu: "Bei all den Firmen, mit denen ich es bisher zu tun hatte, gehört Facebook zu den angenehmsten."
Gemeinsam mit den KI-Forschern Geoffrey Hinton und Yoshua Bengio wurde Yann LeCun im letzten Jahr mit dem Turing-Award ausgezeichnet, dem wichtigsten Preis der Informatik.
Titelbild: O'Reilly Internal bei Flickr. Lizenziert nach CC NY 2.0.
KI-News ohne Hype – von Menschen kuratiert
Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar“‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.
Jetzt abonnierenKI-News ohne Hype
Von Menschen kuratiert.
- Mehr als 20 Prozent Launch-Rabatt.
- Lesen ohne Ablenkung – keine Google-Werbebanner.
- Zugang zum Kommentarsystem und Austausch mit der Community.
- Wöchentlicher KI-Newsletter.
- 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
- Bis zu 25 % Rabatt auf KI Pro Online-Events.
- Zugang zum kompletten Archiv der letzten zehn Jahre.
- Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.