Inhalt
summary Zusammenfassung

Safe Superintelligence (SSI), das KI-Startup von OpenAI-Mitbegründer Ilya Sutskever, verhandelt über eine neue Finanzierungsrunde. Die angestrebte Bewertung wäre eine Vervierfachung seit der letzten Runde.

Anzeige

Laut Reuters steht Safe Superintelligence (SSI) in Gesprächen über eine Finanzierungsrunde, die das Unternehmen mit 20 Milliarden Dollar bewerten würde. Das wäre eine Vervierfachung der Bewertung von fünf Milliarden Dollar seit der letzten Finanzierungsrunde im September - und das ohne jegliche Umsätze. Die Investoren wetten wohl darauf, dass SSI, sollte es Erfolg haben, das wohl wirtschaftlich relevanteste Produkt aller Zeiten auf den Markt bringen würde.

Denn SSI konzentriert sich ausschließlich auf die Entwicklung einer "sicheren Superintelligenz" und unterscheidet sich von anderen KI-Unternehmen durch eben diesen Fokus: Das Startup will Superintelligenz direkt entwickeln, ohne den Umweg über kommerzielle Produkte wie ChatGPT zu gehen. Das Unternehmen befindet sich derzeit noch in der reinen Forschungsphase.

Dieser "ASI"-Fokus war wohl auch ein Grund für Sutskever, OpenAI im Mai 2024 zu verlassen, wo er seit der Gründung als leitender Wissenschaftler tätig war. Das zunehmend kommerzielle Interesse seines ehemaligen Arbeitgebers und OpenAI CEO Sam Altman stand im Kontrast zu seiner Vision.

Anzeige
Anzeige

Die Finanzierungsgespräche befinden sich laut Reuters noch in einem frühen Stadium, und die Bedingungen könnten sich ändern. Das große Interesse der Investoren wird vor allem durch Sutskevers langjährige Expertise in der KI-Forschung geweckt.

Was macht Sutskever anders?

Was genau der neuartige Ansatz von SSI ist, darüber lässt sich nur spekulieren. Auf der KI-Konferenz NeurIPS warnte Sutskever im Dezember vor "Peak Data": Die für das Training von KI-Modellen verfügbaren Daten seien begrenzt, während die Rechenleistung weiter wachse. Sutskever verglich die Trainingsdaten mit fossilen Brennstoffen, die eines Tages aufgebraucht sein werden. Die KI-Branche befinde sich wieder im "Zeitalter der Entdeckungen", sagte er zuvor.

Als mögliche Lösungswege sieht der KI-Forscher KI-Agenten, die eigenständig denken und schlussfolgern können, sowie synthetische Daten und mehr Rechenleistung während der Inferenz. Diese Ansätze werden auch von anderen KI-Laboren wie OpenAI, Anthropic, Google oder Deepseek verfolgt.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Das von OpenAI-Mitgründer Ilya Sutskever gegründete KI-Startup Safe Superintelligence (SSI) befindet sich in Gesprächen über eine Finanzierungsrunde, die das Unternehmen mit 20 Milliarden Dollar bewerten würde.
  • Das wäre eine Vervierfachung seit der letzten Runde im September, und das ohne Umsätze. SSI konzentriert sich auf die direkte Entwicklung einer "sicheren Superintelligenz", ohne den Umweg über kommerzielle Produkte zu gehen.
  • Sutskever sieht als mögliche Lösungswege für das von ihm vorhergesagte "Peak Data"-Problem KI-Agenten, die eigenständig denken und schlussfolgern können, synthetische Daten und mehr Rechenleistung während der Inferenz.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!