Der Wettlauf um die Entwicklung einer leistungsfähigeren KI sei ein "Wettlauf nach unten", so Max Tegmark, Physikprofessor am Massachusetts Institute of Technology und Mitbegründer des Future of Life Institute.
Tegmark, der im März mehr als 30.000 Unterschriften für einen offenen Brief sammelte, in dem er eine sechsmonatige Pause bei der Entwicklung robuster KI-Systeme forderte, zeigt sich nun besorgt über die Zurückhaltung der Technologieunternehmen.
Der Physiker verweist auf den intensiven Wettbewerb und warnt vor den Gefahren dieses Wettlaufs. Tegmark wertet den Brief dennoch als Erfolg, da er dazu beigetragen habe, dass die potenziellen Gefahren von KI in der breiten Öffentlichkeit wahrgenommen werden.
Laut Tegmark ist es notwendig, die weitere Entwicklung zu stoppen, bis weltweit akzeptierte Sicherheitsstandards etabliert sind. Er fordert eine strenge Kontrolle offener KI-Modelle: Die Verbreitung solcher Modelle käme der Verbreitung von Bauplänen für biologische Waffen gleich.
"Die Entwicklung von Modellen, die leistungsfähiger sind als die derzeitigen, muss auf Eis gelegt werden, bis sie den vereinbarten Sicherheitsstandards entsprechen. Eine Einigung auf Sicherheitsstandards wird selbstverständlich zu einer Pause führen", so Tegmark gegenüber The Guardian.
Der bisher berühmteste Brief des Jahres 2023
Ende März veröffentlichte das Future of Life Institute einen offenen Brief, der von prominenten Wirtschaftsführern und Wissenschaftlern, darunter Elon Musk und Steve Wozniak, unterzeichnet wurde und in dem eine sechsmonatige Pause bei der Entwicklung von KI-Systemen, die leistungsfähiger als GPT-4 sind, gefordert wird.
In dem Brief, der an "alle KI-Labore", insbesondere Microsoft und OpenAI, gerichtet ist, wird auf den Mangel an Planung und Management beim Einsatz von KI-Technologie sowie auf potenzielle Risiken hingewiesen, darunter KI-Propaganda, Automatisierung von Arbeitsplätzen und Kontrollverlust.
Das Institut empfiehlt, die Pause zu nutzen, um Sicherheitsrichtlinien zu entwickeln, die von unabhängigen Experten übersehen wurden, und sich mit Gesetzgebern abzustimmen, um eine bessere Überwachung und Kontrolle von KI-Systemen zu erreichen.
Der Brief erregte viel Aufmerksamkeit und löste sicherlich Diskussionen aus, führte aber letztlich nicht zu ernsthaften Pausenplänen. Google bringt in diesem Herbst mit Gemini die nächste Modell-Generation auf den Markt, OpenAI plant visuelle Upgrades für GPT-4 und hat gerade DALL-E 3 vorgestellt.
Tegmark und der Forscher Steve Omohundro haben kürzlich die Verwendung mathematischer Beweise und formaler Verifikation vorgeschlagen, um die Sicherheit und Kontrollierbarkeit fortgeschrittener KI-Systeme, einschließlich AGI, zu gewährleisten.
Die Entwicklung von KI in einer Weise, dass kritische Verhaltensweisen nachweislich mit formalen Spezifikationen übereinstimmen, die menschliche Werte und Präferenzen kodieren, könnte dazu beitragen, ein Sicherheitsnetz zu schaffen.
Die Forscher räumen zwar technische Hindernisse ein, sind aber optimistisch, dass die jüngsten Fortschritte im Bereich des maschinellen Lernens zu Fortschritten beim automatisierten Theorembeweis führen werden.