Dutzende Demonstranten der Gruppen "Pause AI" und "No AGI" versammelten sich vor dem Hauptsitz von OpenAI in San Francisco, um gegen die Entwicklung fortgeschrittener KI zu protestieren.
Die Demonstration war zum Teil eine Reaktion darauf, dass OpenAI kürzlich den Passus, der die Nutzung von KI für militärische Zwecke verbietet, aus seinen Nutzungsrichtlinien gestrichen hat. Das Unternehmen soll mit dem Pentagon an Cybersicherheitsprojekten arbeiten.
Beide Gruppen fordern ein Ende der Beziehungen von OpenAI zum Militär und eine externe Regulierung der KI-Entwicklung.
Die Hauptsorge der Demonstranten gilt jedoch der Entwicklung der künstlichen allgemeinen Intelligenz (AGI), die zu einer Zukunft führen könnte, in der Maschinen die menschliche Intelligenz übertreffen. Beide Gruppen fordern OpenAI auf, die Arbeit an fortgeschrittenen KI-Systemen einzustellen und die Entwicklung von AGI zu verlangsamen oder sogar zu stoppen.
Sie argumentieren, dass KI die Machtdynamik und die Entscheidungsfindung in der Gesellschaft grundlegend verändern könne, was zum Verlust von Arbeitsplätzen und dem Sinn des menschlichen Lebens führen könnte.
Reporting from the protest at OpenAI pic.twitter.com/SYbXKYq43b
— Garrison Lovely is in SF til Feb 12 (@GarrisonLovely) February 13, 2024
Die Gruppen planen weitere Aktionen, auch wenn sie sich laut VentureBeat in der AGI-Frage nicht ganz einig sind: Pause AI ist offen für die Idee einer AGI, wenn sie sicher entwickelt werden kann, während No AGI sich strikt gegen ihre Entwicklung ausspricht.
KI-Warner haben derzeit das Nachsehen
Erstmals wurde ein Stopp der KI-Entwicklung öffentlich lautstark diskutiert, als eine Gruppe von Forschern und Unternehmern den "KI-Pause-Brief" veröffentlichte. Derzeit scheint jedoch die Pro-KI-Entwicklung die Oberhand zu gewinnen.
Regierungen bemühen sich um eine Regulierung, um die möglichen negativen Auswirkungen eines weitverbreiteten Einsatzes von KI einzudämmen. Die USA wollen mit ihrer KI-Verordnung und die EU mit dem kürzlich verabschiedeten EU AI Act dabei eine Vorreiterrolle einnehmen.
OpenAI CEO Sam Altman hat in der Vergangenheit auf die fließenden Grenzen der KI-Definition hingewiesen: Systeme wie GPT-4 wären vor zehn Jahren von vielen als AGI angesehen worden. Heute seien sie nur "nette kleine Chatbots". Die Menschheit müsse sich auf eine AGI-Definition einigen.
Altman glaubt auch, dass die bloße Skalierung großer Sprachmodelle allein wahrscheinlich nicht zu AGI führen wird und ein weiterer Durchbruch erforderlich ist. Eine echte Superintelligenz müsse in der Lage sein, neue Phänomene in der Physik zu entdecken. Das könne nicht allein durch Training auf bekannten Daten und Nachahmung menschlichen Verhaltens und Textes erreicht werden.
OpenAI hat unter anderem ein "Preparedness Team" eingerichtet, um die Sicherheit von KI zu verbessern und potenziell katastrophalen Risiken durch grundlegende KI-Modelle vorzubeugen. Das Team befasst sich mit kritischen Fragen wie der Gefahr des Missbrauchs führender KI-Systeme, der Entwicklung eines robusten Rahmens für die Überwachung und Bewertung dieser Systeme und den möglichen Auswirkungen, wenn Modellgewichte in die Hände böswilliger Akteure gelangen.