Eine verfrühte Regulierung von KI könnte die Dominanz der großen Technologieunternehmen stärken und den Wettbewerb behindern, warnt Metas-Chefforscher Yann LeCun.
LeCun ist überzeugt, dass die Regulierung der KI-Forschung und -Entwicklung kontraproduktiv sein und unter dem Vorwand der KI-Sicherheit zu einer "regulatorischen Gefangenschaft" führen könnte.
Er führt Forderungen nach KI-Regulierung auf den "Überlegenheitskomplex" der führenden Technologieunternehmen zurück, die behaupten, nur sie seien vertrauenswürdig genug, um KI sicher zu entwickeln.
LeCun bezeichnete diese Haltung als "unglaublich arrogant" und plädierte für einen offeneren Ansatz bei der Entwicklung von KI. Meta setze auf Open-Source-Modelle wie LLaMA, die den Wettbewerb fördern und es einer größeren Vielfalt von Menschen ermöglichen, KI-Systeme zu entwickeln und zu nutzen, so LeCun.
Kritiker der Meta-Strategie wiederum befürchten, dass die Bereitstellung leistungsfähiger generativer KI-Modelle in den Händen potenziell böswilliger Akteure die Risiken von Desinformation, Cyberkriegsführung und Bioterrorismus erhöhen könnte.
Der renommierte KI-Forscher äußerte sich gegenüber der Financial Times im Vorfeld der Bletchley-Park-Konferenz über KI-Sicherheit, die im November von der britischen Regierung organisiert wird.
Keine Angst vor dem Terminator
Die Vorstellung, dass die heutige KI zur Vernichtung der Menschheit führen könnte, bezeichnete LeCun als "absurd". Die Menschen seien durch Science-Fiction und das "Terminator-Szenario" darauf konditioniert, zu glauben, dass intelligente Maschinen die Kontrolle übernehmen würden, wenn sie intelligenter als Menschen würden.
Intelligenz und Dominanzstreben seien jedoch nicht gleichzusetzen, so LeCun, der die Menschheit auch im Zeitalter einer Super-KI noch als Apex-Spezies sieht. Ohnehin seien heutige KI-Modelle nicht so leistungsfähig, wie manche Forscher sie darstellten. Es fehle ihnen an Weltverständnis, Planung und echtem Denken.
Insbesondere OpenAI und Google DeepMind wirft LeCun zu viel Optimismus vor. Menschenähnliche KI sei viel komplexer als heutige Systeme und erfordere mehrere "konzeptionelle Durchbrüche".
LeCun schlägt zudem vor, dass KI kontrolliert werden könnte, indem man "moralischen Charakter" in diese Systeme einbaut, ähnlich wie Gesetze menschliches Verhalten regulieren. Das Start-up Anthropic verfolgt diesen Ansatz mit einer Verfassung für den Chatbot Claude.
Langfristig liegt die Maschine vorne
LeCun räumt ein, dass Maschinen die menschliche Intelligenz "zweifellos" in den meisten Bereichen übertreffen werden, was er positiv sieht: Diese Entwicklung könne zu einer zweiten Renaissance des Lernens führen. Leistungsfähige KI-Systeme könnten der Menschheit auch helfen, große Herausforderungen wie den Klimawandel zu bewältigen und Krankheiten zu heilen.
Er stellt sich eine Zukunft vor, in der jeder Zugang zu KI-Assistenten hat, die den Alltag unterstützen und die Interaktion mit der digitalen Welt erleichtern. "Wir werden keine Suchmaschinen mehr benutzen", sagt LeCun.
LeCun stellte seine Zukunftsvision einer "autonomen KI" im Frühjahr 2022 vor. Die Architektur besteht aus sechs Modulen: Konfigurator, Wahrnehmung, Weltmodell, Kosten, Akteur und Kurzzeitgedächtnis. Das Weltmodellmodul basiert auf Joint Embedding Predictive Architectures (JEPA) und ist das Kernstück der vorgeschlagenen Architektur. Es ermöglicht unüberwachtes Lernen mit großen Mengen komplexer Daten und erzeugt abstrakte Repräsentationen. Jedoch seien noch viele Fragen offen.