Wie Meta-Boss Zuckerberg mit Open-Source-KI Geld verdienen will
Meta will mit seinen Open-Source-Produkten die Infrastruktur- und Entwicklerszene dominieren, ähnlich wie es Google mit Android-Smartphones gelungen ist.
Laut Zuckerberg besteht die Open-Source-Strategie von Meta darin, allgemeine Infrastrukturen zu entwickeln und als Open-Source-Software zur Verfügung zu stellen. Im KI-Bereich umfasst diese Infrastruktur die von Meta entwickelten Llama-Modelle und Industrie-Standardwerkzeuge wie PyTorch. Die produktspezifischen Implementierungen bleiben dagegen proprietär.
Open-Source-Strategie von Meta: KI-Infrastruktur dominieren
Zuckerberg erläutert im jüngsten Earnings Call die möglichen Vorteile von Metas Open-Source-Strategie. Open-Source-Modelle seien in der Regel sicherer, effizienter und kostengünstiger zu betreiben, da sie kontinuierlich von der Community überprüft und weiterentwickelt würden.
Außerdem könne Open-Source-Software zum Industriestandard werden, was die Integration neuer Innovationen in Meta-Produkte erleichtere. Schließlich helfe die Popularität von Open Source unter Entwicklern und Forschern Meta, die besten Talente für das Unternehmen zu gewinnen.
Trotz der weitgehend kostenlosen Bereitstellung von Infrastrukturen wie Llama-Modellen und PyTorch als Open-Source-Software sieht Zuckerberg keine signifikanten Auswirkungen auf die Hauptvorteile von KI für Meta.
Da Meta in der Regel über einzigartige Daten verfüge und spezielle Produktintegrationen entwickele, könne das Unternehmen weiterhin als Branchenführer auftreten, ohne dass die Produktdifferenzierung wesentlich beeinträchtigt wird.
"Die kurze Version ist, dass Open Sourcing unsere Modelle verbessert, und da es immer noch viel Arbeit ist, unsere Modelle in Produkte umzuwandeln, und da es ohnehin andere Open-Source-Modelle geben wird, glauben wir, dass es insgesamt von Vorteil ist, der Open-Source-Marktführer zu sein, weil es die Differenzierung unserer Produkte nicht wesentlich verringert", sagt Zuckerberg.
Der nächste Schritt in der KI-Strategie von Meta sei das Lernen aus einzigartigen Daten und Feedbackschleifen in Meta-Produkten.
Zuckerberg rechnet mit weiter steigendem Bedarf an Rechenleistung
Zuckerberg geht davon aus, dass die Entwicklung von KI weiterhin rechenintensiv sein wird. Historisch gesehen hätten die fortschrittlichsten Sprachmodelle derzeit etwa das Zehnfache an Rechenleistung pro Jahr für das Training benötigt. Dieser Trend könnte sich fortsetzen, auch wenn nicht klar ist, in welchem Ausmaß.
Trotz der Ungenauigkeit der Prognose will Zuckerberg massiv in Rechenzentren und eigene KI-Chips investieren: "Wir spielen hier um den Sieg und ich erwarte, dass wir weiter aggressiv in diesen Bereich investieren."
Vor rund einer Woche kündigte Zuckerberg an, bis Ende des Jahres rund 600.000 GPUs für das KI-Training im Einsatz zu haben. Zudem bestätigte Meta, dass es noch in diesem Jahr eine zweite Version des selbst entwickelten KI-Chips "Artemis" in Produktion bringen will.
KI-News ohne Hype – von Menschen kuratiert
Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar“‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.
Jetzt abonnierenKI-News ohne Hype
Von Menschen kuratiert.
- Mehr als 20 Prozent Launch-Rabatt.
- Lesen ohne Ablenkung – keine Google-Werbebanner.
- Zugang zum Kommentarsystem und Austausch mit der Community.
- Wöchentlicher KI-Newsletter.
- 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
- Bis zu 25 % Rabatt auf KI Pro Online-Events.
- Zugang zum kompletten Archiv der letzten zehn Jahre.
- Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.