Eine Gruppe von aktuellen und ehemaligen Mitarbeitenden von führenden KI-Unternehmen wie OpenAI, Google und Anthropic hat einen offenen Brief veröffentlicht. Darin warnen sie vor den ernsthaften Risiken, die von fortschrittlicher KI ausgehen, und fordern mehr Aufsicht über die Branche.
Eine Gruppe aktueller und ehemaliger Mitarbeitender führender KI-Unternehmen wie OpenAI, Google Depmind und Anthropic hat einen offenen Brief veröffentlicht. Darin warnen sie vor den ernsthaften Risiken fortgeschrittener KI und fordern eine stärkere Aufsicht über die Branche.
"Wir glauben an das Potenzial der KI-Technologie, der Menschheit beispiellosen Nutzen zu bringen", schreiben die Unterzeichner. "Aber wir verstehen auch die ernsthaften Risiken, die diese Technologien mit sich bringen."
Zu den Risiken zählten die Zementierung bestehender Ungleichheiten, Manipulation und Desinformation bis zum Kontrollverlust über autonome KI-Systeme, der zum Aussterben der Menschheit führen könne.
KI-Unternehmen hätten starke finanzielle Anreize, sich einer wirksamen Aufsicht zu entziehen, heißt es in dem Brief. Corporate-Governance-Strukturen reichten nicht aus, um dies zu ändern.
"KI-Unternehmen verfügen über wesentliche nicht-öffentliche Informationen über die Fähigkeiten und Grenzen ihrer Systeme, die Angemessenheit ihrer Schutzmaßnahmen und die Risikoniveaus verschiedener Arten von Schäden", so die Unterzeichner.
"Derzeit haben sie jedoch nur schwache Verpflichtungen, einige dieser Informationen mit Regierungen zu teilen, und keine mit der Zivilgesellschaft. Wir glauben nicht, dass man sich darauf verlassen kann, dass sie diese Informationen freiwillig zur Verfügung stellen."
Whistleblower-Schutz für KI-Branche gefordert
Solange es keine wirksame staatliche Aufsicht über KI-Unternehmen gibt, gehören derzeitige und ehemalige Mitarbeiter zu den wenigen Personen, die diese Unternehmen gegenüber der Öffentlichkeit zur Rechenschaft ziehen können. Aber auch hier gebe es Einschränkungen.
"Die üblichen Schutzmaßnahmen für Whistleblower sind unzureichend, da sie sich auf illegale Aktivitäten konzentrieren, während viele der Risiken, die uns Sorgen bereiten, noch gar nicht reguliert sind", schreiben sie.
Die Unterzeichner fordern die KI-Unternehmen auf, sich zu folgenden Grundsätzen zu verpflichten:
- Kein Eingehen oder Durchsetzen von Vereinbarungen, die es verbieten, das Unternehmen wegen risikobezogener Bedenken zu "verunglimpfen" oder zu kritisieren, und keine Vergeltung für risikobezogene Kritik durch Verhinderung wirtschaftlicher Vorteile.
- Ermöglichung eines anonymen und überprüfbaren Verfahrens für gegenwärtige und ehemalige Mitarbeiterinnen und Mitarbeiter, um risikobezogene Bedenken gegenüber dem Vorstand des Unternehmens, den Aufsichtsbehörden und einer geeigneten unabhängigen Organisation mit einschlägigem Fachwissen zu äußern.
- Förderung einer Kultur der offenen Kritik und Erlaubnis für aktuelle und ehemalige Mitarbeitende, risikobezogene Bedenken über die Technologien des Unternehmens gegenüber der Öffentlichkeit, dem Vorstand, den Aufsichtsbehörden oder einer geeigneten unabhängigen Organisation mit einschlägigem Fachwissen zu äußern, vorausgesetzt, dass Geschäftsgeheimnisse und andere Rechte an geistigem Eigentum angemessen geschützt werden.
- Keine Vergeltungsmaßnahmen gegen gegenwärtige oder ehemalige Mitarbeiterinnen und Mitarbeiter, die risikobezogene vertrauliche Informationen öffentlich gemacht haben, nachdem andere Verfahren gescheitert sind.
Zu den Unterzeichnern des offenen Briefes gehören vier anonyme derzeitige und sieben ehemalige OpenAI-Mitarbeiterinnen und -Mitarbeiter.
Mit Geoffrey Hinton, Yoshua Bengio und Stuart Russell unterstützen drei Ikonen der KI-Forschung den offenen Brief. Ihre Thesen zu den Gefahren von KI, insbesondere die von Hinton, sind in der Branche allerdings nicht unumstritten. Andere bekannte KI-Forscher wie Yann LeCun werfen ihnen Panikmache vor.
OpenAI weiter im Brennpunkt der KI-Sicherheitsdebatte
OpenAI wurde insbesondere wegen Knebelverträgen kritisiert, die ausscheidende Mitarbeitende daran hindern, sich negativ über OpenAI zu äußern. Das Unternehmen ist angeblich dabei, diese Klauseln abzuschaffen.
Zudem löste OpenAI nur ein Jahr nach seiner Gründung sein Team für langfristige KI-Risiken auf, nachdem zahlreiche Forschende in diesem Bereich das Unternehmen verlassen hatten. Teamleiter Jan Leike begründete seinen Rücktritt damit, dass die Sicherheitskultur und -prozesse bei OpenAI hinter schönen neuen Produkten zurückgeblieben seien.
Auch die Entlassung und spätere Wiedereinstellung von Sam Altman hatte letztlich mit Sicherheitsbedenken zu tun, die von den Entlassungsverantwortlichen unter anderem mit charakterlichen Schwächen Altmans begründet wurden. Der jetzige OpenAI-Vorstand und die Untersuchungen einer Anwaltskanzlei entlasten Altman.
"Wir sind uns einig, dass eine gründliche Debatte angesichts der Bedeutung dieser Technologie unerlässlich ist, und wir werden weiterhin mit Regierungen, der Zivilgesellschaft und anderen Gemeinschaften auf der ganzen Welt zusammenarbeiten", sagt ein OpenAI-Sprecher gegenüber CNBC.
Das Unternehmen habe eine anonyme Integritäts-Hotline eingerichtet und kürzlich ein neues Komitee für Sicherheit und Schutz ins Leben gerufen - dem allerdings auch Sam Altman angehört.