Ein offener Brief warnt davor, dass OpenAIs geplante Umwandlung in eine gewinnorientierte Struktur die eigene gemeinnützige Mission gefährdet. Unter den Unterzeichnenden sind Nobelpreisträger Geoffrey Hinton, KI-Expertin Margaret Mitchell und der Informatiker Stuart Russell.
Ein Zusammenschluss aus früheren OpenAI-Mitarbeitenden, Wissenschaftler:innen und gemeinnützigen Organisationen fordert in einem offenen Brief den Stopp der geplanten Umstrukturierung von OpenAI. Die Gruppe lehnt die Absicht ab, die Kontrolle über die Entwicklung künstlicher allgemeiner Intelligenz (AGI) von einer gemeinnützigen Organisation auf eine Public Benefit Corporation zu übertragen.
Die PBC wäre rechtlich verpflichtet, auch Shareholder-Interessen zu berücksichtigen. Die ursprüngliche Gemeinwohlbindung wäre damit nicht mehr durchsetzbar – auch nicht durch staatliche Aufsichtsbehörden wie die Generalstaatsanwälte von Kalifornien und Delaware, an die sich der Brief richtet.
Laut dem Schreiben würde dieser Schritt die in der Gründungsurkunde verankerte Verpflichtung, "AGI zum Wohle der gesamten Menschheit" zu entwickeln, untergraben. OpenAI selbst habe stets betont, dass es nicht um die Entwicklung von AGI an sich gehe, sondern darum, dass deren Entwicklung im öffentlichen Interesse erfolgt.
Gemeinnützigkeit als Schutz vor Profitinteressen
OpenAI wurde 2015 als Nonprofit gegründet – unter anderem aus Sorge, dass profitorientierte Konzerne AGI ohne Rücksicht auf das Gemeinwohl vorantreiben könnten. Die Gründungsstruktur wurde 2019 angepasst, um Kapital aufzunehmen: Eine gewinnorientierte Tochter (OpenAI LP) wurde gegründet, blieb jedoch vollständig unter Kontrolle der Nonprofit-Mutter. Zusätzlich wurden Gewinne für Investoren gedeckelt, ein unabhängiger Vorstand eingeführt und die AGI-Technologie der Nonprofit zugeordnet.
Diese Schutzmechanismen seien laut den Unterzeichnenden nun in Gefahr. Die geplante Umstrukturierung sehe vor, dass die operative Kontrolle an eine neue PBC übergehe, während die Nonprofit nur noch Anteile halte. Damit entfalle unter anderem die rechtlich durchsetzbare Treuepflicht gegenüber dem Gemeinwohl, die Kappung von Investorenprofiten sowie die Absicherung, dass AGI-Technologie der Allgemeinheit gehöre.
Besonders kritisch sehen die Autor:innen auch, dass OpenAI bisher nicht offengelegt habe, wer künftig über den Einsatz von AGI-Technologie entscheiden würde – oder ob Microsoft als Hauptinvestor Zugriff darauf erhielte. Auch die sogenannte "Stop-and-assist"-Klausel aus dem OpenAI-Charter, die zur Kooperation mit sicherheitsorientierten AGI-Projekten verpflichtet, sofern diese früher AGI erreichen, sei in der neuen Struktur nicht mehr gesichert.
Governance-Schutzmechanismus | Heute | Geplante Umstrukturierung |
---|---|---|
1. Profitinteressen sind dem gemeinnützigen Zweck untergeordnet | Ja | Nein |
2. Die Führung hat eine Treuepflicht zur Mission, durchsetzbar durch die Generalstaatsanwälte | Ja | Nein |
3. Investorenprofite sind gedeckelt, Überschüsse gehören der Nonprofit | Ja | Angeblich nicht |
4. Verpflichtung zu mehrheitlich unabhängiger Vorstandsbesetzung | Ja | Unklar |
5. AGI gehört im Erfolgsfall der Nonprofit zum Wohle der Menschheit | Ja | Standardmäßig: Nein |
6. „Stop-and-assist“-Klausel aus dem OpenAI-Charter | Ja | Unklar |
Zu den prominenten Unterzeichnenden gehören der KI-Pionier und Nobelpreisträger Geoffrey Hinton (University of Toronto), KI-Ethik-Forscherin Margaret Mitchell (Hugging Face) und der Informatiker Stuart Russell (University of California, Berkeley). Unterstützt wird der Brief unter anderem auch von früheren OpenAI-Mitarbeitenden, Professor:innen der Harvard, UCLA und Columbia sowie dem Center for Humane Technology.
Kritik an OpenAIs Umstrukturierung wächst
Bereits zuvor hatten zwölf ehemalige OpenAI-Mitarbeitende in einem offiziellen Schreiben an ein US-Gericht – zur Unterstützung der Klage von Elon Musk gegen OpenAI wegen derselben Umstrukturierungspläne – nahezu identische Bedenken geäußert. Sie warfen dem Unternehmen vor, die gemeinnützige Struktur gezielt genutzt zu haben, um sicherheitsorientierte Fachkräfte anzuziehen, während intern bereits eine kommerzielle Neuausrichtung vorbereitet worden sei.
In einer eidesstattlichen Erklärung erhob der frühere OpenAI-Forscher Todor Markov zudem harte Vorwürfe gegen CEO Sam Altman. Dieser habe Mitarbeitende durch restriktive Schweigeklauseln unter Druck gesetzt und bei deren Einführung die Unwahrheit gesagt. Die geplante Umwandlung in eine PBC sei aus Sicht der Unterzeichnenden ein Bruch mit der ursprünglichen Mission von OpenAI.
Ein Scheitern der geplanten Umstrukturierung wäre für OpenAI auch finanziell riskant. Die Mittel aus der aktuellen Finanzierungsrunde sind teils an die Bedingung geknüpft, dass die Umstrukturierung bis Ende des Jahres abgeschlossen wird. Sollte sie scheitern, könnte OpenAI Investoren verlieren und seine strategischen Pläne für den weiteren Ausbau der KI-Entwicklung gefährden. Die operative Kontrolle würde in der bisherigen Struktur verbleiben, die von Investoren als unattraktiv gilt – insbesondere wegen der Kappung möglicher Renditen. Damit stünde OpenAI vor der Herausforderung, Milliardeninvestitionen in Recheninfrastruktur, Personal und Modelltraining unter erschwerten Bedingungen zu sichern.