Die Non-Profit-Organisation Future of Life Institute beschäftigt sich mit den grundlegenden Bedrohungen der menschlichen Existenz. Jetzt lanciert sie einen offenen Brief, der sich für eine KI-Pause ausspricht. Unterzeichnet ist der Brief von einigen bekannten Persönlichkeiten aus Forschung und Wissenschaft.
Für mindestens sechs Monate sollen alle KI-Labore die Entwicklung von KI-Systemen stoppen, die leistungsfähiger sind als GPT-4, heißt es in dem Brief, der laufende Projekte als "riesige KI-Experimente" bezeichnet.
Unterzeichnet ist der Brief von Unternehmern wie Elon Musk, Steve Wozniak und Stablity-AI (Stable Diffusion) Mitbegründer Emad Mostaque, aber auch von zahlreichen namhaften Forschenden aus der KI-Szene wie dem Turing-Preisträger Yoshua Bengio, dem Berkeley KI-Professor Stuart Russell und dem Sprachmodell-Kritiker Gary Marcus.
Auch drei Forschende von Googles KI-Schwester Deepmind und ein Google-Entwickler haben den Brief unterzeichnet. Von OpenAI ist bislang niemand darunter. Insgesamt hat der offene Brief derzeit 1125 Unterzeichner und Unterzeichnerinnen.
Offener Brief an OpenAI und Microsoft
Der Brief richtet sich zwar an "alle KI-Labore", die Arbeit an leistungsfähigeren KI-Systemen als GPT-4 einzustellen. Der Unterton zielt aber vor allem auf den offensiven Einsatz großer Sprachmodelle von Microsoft und OpenAI ab. Beide Unternehmen haben innerhalb weniger Wochen viele Millionen Menschen mit KI-Technologie ausgestattet und große Sprachmodelle in zahlreiche Standardanwendungen integriert.
Als Grund für seine Forderung nennt das Institut die mangelhafte Planung und Steuerung der aktuellen Verbreitung der Technologie. Der KI-Wettlauf sei "außer Kontrolle geraten", die Auswirkungen der "digitalen Intelligenzen" könnten "nicht einmal ihre Erfinder verstehen, vorhersagen oder verlässlich kontrollieren".
Als mögliche Risiken nennt der Brief gängige Negativszenarien wie KI-Propaganda, die Automatisierung vieler Jobs, die Verdrängung menschlicher Intelligenz und letztlich den Kontrollverlust über die eigene Zivilisation.
"Leistungsfähige KI-Systeme sollten erst dann entwickelt werden, wenn wir sicher sind, dass ihre Auswirkungen positiv und ihre Risiken beherrschbar sind", heißt es in dem Brief.
Gemeinsame Regeln entwickeln
Die Pause von mindestens sechs Monaten sollten Entwickelnde und unabhängige Expert:innen nutzen, um gemeinsame Sicherheitsrichtlinien zu erarbeiten, die von externen Expert:innen übersehen werden. Diese Richtlinien müssten sicherstellen, dass die Systeme weitgehend zweifelsfrei sicher seien.
Parallel dazu müsse eine Abstimmung mit den Gesetzgebern erfolgen, die zumindest dazu führe, dass KI-Systeme durch eine eigene Abteilung überwacht, kontrolliert und nachvollzogen werden können, zum Beispiel durch ein Wasserzeichensystem.
Einen generellen Stopp der KI-Entwicklung fordert das Institut nicht, nur "eine Abkehr vom gefährlichen Wettlauf zu immer größeren, unberechenbaren Black-Box-Modellen mit emergenten Fähigkeiten".
"Die Gesellschaft hat bei anderen Technologien mit potenziell katastrophalen Auswirkungen eine Pause eingelegt, und das können wir auch hier tun. Genießen wir einen langen KI-Sommer und stürzen wir uns nicht unvorbereitet in den Herbst", schreibt das Institut.
Auch unser Podcast-Gast Connor Leahy, inzwischen CEO von Conjecture, hat den Brief unterzeichnet. Mit ihm haben wir ausführlich über die Risiken gesprochen, die mit einer unvorsichtigen oder nicht vollständig auf die menschlichen Bedürfnisse abgestimmten Einführung fortgeschrittener KI verbunden sind.