In einer E-Mail an Elon Musk vor der Gründung von OpenAI skizzierte Sam Altman sein Konzept für die Organisation und versprach, die erste AGI zu schaffen, von der alle profitieren.
Im Rahmen der Klage von Elon Musk gegen Sam Altman und OpenAI führen Musks Anwälte eine E-Mail aus dem Sommer 2015 als Beweismittel an, die einen interessanten Einblick in die Phase vor der Gründung von OpenAI im Dezember 2015 gibt.
"Die Mission wäre es, die erste allgemeine KI zu schaffen und sie für die individuelle Befähigung zu nutzen", schrieb Altman. Der kürzlich von OpenAI eingeschlagene Weg, individuelle KI-Agenten zu entwickeln, scheint auf dieses Versprechen einzuzahlen.
Altman empfahl, mit einem kleinen Eliteteam von bis zu zehn Personen zu beginnen, das in einem verfügbaren Gebäude in Mountain View untergebracht werden sollte.
Zudem schlug er eine fünfköpfige Führungsstruktur vor, die unter anderem aus ihm selbst und Musk bestehen sollte, um die stiftungseigene KI-Technologie zum globalen Nutzen zu steuern.
Aus der E-Mail geht auch hervor, dass Altman Wert auf eine - wenn auch begrenzte - Beteiligung von Musk legte, um das Projekt zu leiten und Spitzenkräfte anzuziehen. Außerdem sollte Musk einmal im Monat mit den Mitarbeitern über die Fortschritte sprechen.
"Selbst wenn du nicht wirklich Zeit dafür aufbringen kannst, aber öffentliche Unterstützung geben kannst, wäre das wahrscheinlich sehr hilfreich für die Rekrutierung", schrieb Altman.
Er skizzierte ein Vergütungsmodell für Forschende, bei dem das Einkommen von der Arbeit getrennt ist, um Interessenkonflikte zu vermeiden.
Im aktuellen Modell der 2019 gegründeten For-Profit-Einheit verdienen die Mitarbeitenden über Beteiligungen mit. Altman selbst hält nach eigenen Angaben keine Anteile an OpenAI.
Darüber hinaus schlug Altman vor, die Veröffentlichung eines Regulierungsschreibens zum Thema Sicherheit zu verschieben, um es mit den Fortschritten von OpenAI in Einklang zu bringen.
Er könne den Brief dann mit einer Nachricht wie "Jetzt, wo wir dabei sind, habe ich viel darüber nachgedacht, welche Art von Sicherheitsanforderungen die Welt braucht" veröffentlichen, sagte Altman.
Elon Musk stimmte Altman in allen Punkten zu.
From: Elon Musk
Sent: Wednesday, June 24, 2015 11:06 PM
To: Sam Altman
Subject: Re: Al labAgree on all
On Jun 24, 2015, at 10:24 AM, Sam Altman wrote:
1) The mission would be to create the first general AI and use it for individual empowerment i.e., the distributed version of the future that seems the safest. More generally, safety should be a first-class requirement.2) I think we'd ideally start with a group of 7-10 people, and plan to expand from there. We have a nice extra building in Mountain View they can have.
3) I think for a governance structure, we should start with 5 people and I'd propose you, and me. The technology would be owned by the foundation and used "for the good of the world", and in cases where it's not obvious how that should be applied the 5 of us would decide. The researchers would have significant financial upside but it would be uncorrelated to what they build, which should eliminate some of the conflict (we'll pay them a competitive salary and give them YC equity for the upside). We'd have an ongoing conversation about what work should be open-sourced and what shouldn't. At some point we'd get someone to run the team, but he/she probably shouldn't be on the governance board.
4) Will you be involved somehow in addition to just governance? I think that would be really helpful for getting work pointed in the right direction getting the best people to be part of it. Ideally you'd come by and talk to them about progress once a month or whatever. We generically call people involved in some limited way in YC "parl-time partners" (we do that with Peter Thiel for example, though at this point he's very involved) but we could call it whatever you want. Even if you can't really spend time on it but can be publicly supportive, that would still probably be really helpful for recruiting.
5) I think the right plan with the regulation letter is to wait for this to get going and then I can just release it with a message like "now that we are doing this, I've been thinking a lot about what sort of constraints the world needs for safety." I'm happy to leave you off as a signatory. I also suspect that after it's out more people will be willing to get behind it.
Sam
Musk wirft Altman nun vor, OpenAI zu einer Closed-Source-Tochter von Microsoft zu machen und damit gegen die Gründungsvereinbarung zu verstoßen, AGI als Open Source weiterzuentwickeln und der Öffentlichkeit zur Verfügung zu stellen. Die Geheimhaltung von GPT-4 habe kommerzielle und keine sicherheitstechnischen Gründe.
Der neue Vorstand, der nach Altmans Rauswurf und Wiedereinstellung eingesetzt wurde, sei von Altman handverlesen worden und verfüge über keine substanzielle KI-Expertise. Musk glaubt, dass der neue Vorstand nicht in der Lage sein wird, unabhängig zu entscheiden, ob und wann OpenAI AGI erreicht hat.
Musk zog sich im Februar 2018 aus dem OpenAI-Vorstand zurück. OpenAI erklärte damals, dass Musks Rücktritt mit der Vermeidung von Interessenkonflikten in seiner Rolle als CEO von Tesla zu tun habe, das ebenfalls an KI forscht. Der Klage zufolge hat Musk zwischen 2016 und 2020 rund 44 Millionen Dollar an OpenAI gespendet.