Inhalt
summary Zusammenfassung

Ilya Sutskever, Mitbegründer und langjähriger leitender Wissenschaftler von OpenAI, hat zusammen mit zwei Partnern das Start-up Safe Superintelligence Inc. gegründet. Das ehrgeizige Ziel: die Entwicklung einer sicheren Superintelligenz.

Anzeige

Dafür hat sich Ilya Sutskever mit dem Investor Daniel Gross und dem ehemaligen OpenAI-Ingenieur Daniel Levy zusammengetan - das neue Unternehmen heißt entsprechend seiner Mission "Safe Superintelligence Inc" (SSI).

Bild: Sutskever via X

Das Unternehmen mit Sitz in Palo Alto und Tel Aviv hat sich zum Ziel gesetzt, das nach eigenen Angaben "wichtigste technische Problem unserer Zeit" zu lösen: die Entwicklung einer sicheren Superintelligenz. Dazu will es nach eigenen Angaben ein schlankes Team der weltweit besten Ingenieure und Forscher rekrutieren.

"SSI ist unsere Mission, unser Name und unsere gesamte Produkt-Roadmap, denn das ist unser einziger Fokus", heißt es in der Ankündigung. "Unser Team, unsere Investoren und unser Geschäftsmodell sind alle auf SSI ausgerichtet."

Anzeige
Anzeige

Das Unternehmen will Sicherheit und Fähigkeiten der KI parallel vorantreiben und dabei revolutionäre Durchbrüche in Technik und Wissenschaft erzielen. "Wir planen, die Fähigkeiten so schnell wie möglich voranzutreiben und gleichzeitig sicherzustellen, dass unsere Sicherheit immer einen Schritt voraus ist", so die Gründer. SSI soll das einzige Forschungs- und Entwicklungsthema sein.

Sutskever hatte OpenAI Mitte Mai nach fast zehn Jahren verlassen. Mit ihm gingen zahlreiche Sicherheitsforscher. OpenAI-CEO Sam Altman löste auch das Super-KI-Sicherheitsteam auf, das Sutskever geleitet hatte.

Als Vorstandsmitglied von OpenAI war Sutskever im November 2023 am vorübergehenden Rauswurf von OpenAI-CEO Sam Altman beteiligt. Medien- und Insiderberichten zufolge soll er zuvor Bedenken über die von Altman forcierte schnelle Kommerzialisierung und die damit verbundenen Sicherheitsrisiken geäußert haben. Nun scheint der KI-Pionier, der 2012 zu den Autoren des bahnbrechenden AlexNet-Papiers gehörte, diesen Bedenken mit einem eigenen Unternehmen begegnen zu wollen.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Ilya Sutskever, Mitbegründer und ehemaliger leitender Wissenschaftler von OpenAI, hat zusammen mit dem Investor Daniel Gross und dem ehemaligen OpenAI-Ingenieur Daniel Levy das Start-up-Unternehmen Safe Superintelligence Inc (SSI) gegründet, um genau das zu tun: eine sichere Superintelligenz zu entwickeln.
  • Das Unternehmen mit Sitz in Palo Alto und Tel Aviv will ein kleines Team der weltbesten Ingenieure und Forscher rekrutieren, um die Fähigkeiten und die Sicherheit von KI parallel voranzutreiben und bahnbrechende technische und wissenschaftliche Fortschritte zu erzielen.
  • Sutskever verließ OpenAI im Mai 2024 nach fast zehn Jahren und Streitigkeiten mit OpenAI-CEO Sam Altman. Grund waren wohl Bedenken über die schnelle Kommerzialisierung von KI und die damit verbundenen Sicherheitsrisiken unter Altman. Mit SSI scheint er diesen Bedenken nun mit einem eigenen Unternehmen begegnen zu wollen.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!