Meta will mit seinen Open-Source-Produkten die Infrastruktur- und Entwicklerszene dominieren, ähnlich wie es Google mit Android-Smartphones gelungen ist.
Laut Zuckerberg besteht die Open-Source-Strategie von Meta darin, allgemeine Infrastrukturen zu entwickeln und als Open-Source-Software zur Verfügung zu stellen. Im KI-Bereich umfasst diese Infrastruktur die von Meta entwickelten Llama-Modelle und Industrie-Standardwerkzeuge wie PyTorch. Die produktspezifischen Implementierungen bleiben dagegen proprietär.
Open-Source-Strategie von Meta: KI-Infrastruktur dominieren
Zuckerberg erläutert im jüngsten Earnings Call die möglichen Vorteile von Metas Open-Source-Strategie. Open-Source-Modelle seien in der Regel sicherer, effizienter und kostengünstiger zu betreiben, da sie kontinuierlich von der Community überprüft und weiterentwickelt würden.
Außerdem könne Open-Source-Software zum Industriestandard werden, was die Integration neuer Innovationen in Meta-Produkte erleichtere. Schließlich helfe die Popularität von Open Source unter Entwicklern und Forschern Meta, die besten Talente für das Unternehmen zu gewinnen.
Trotz der weitgehend kostenlosen Bereitstellung von Infrastrukturen wie Llama-Modellen und PyTorch als Open-Source-Software sieht Zuckerberg keine signifikanten Auswirkungen auf die Hauptvorteile von KI für Meta.
Da Meta in der Regel über einzigartige Daten verfüge und spezielle Produktintegrationen entwickele, könne das Unternehmen weiterhin als Branchenführer auftreten, ohne dass die Produktdifferenzierung wesentlich beeinträchtigt wird.
"Die kurze Version ist, dass Open Sourcing unsere Modelle verbessert, und da es immer noch viel Arbeit ist, unsere Modelle in Produkte umzuwandeln, und da es ohnehin andere Open-Source-Modelle geben wird, glauben wir, dass es insgesamt von Vorteil ist, der Open-Source-Marktführer zu sein, weil es die Differenzierung unserer Produkte nicht wesentlich verringert", sagt Zuckerberg.
Der nächste Schritt in der KI-Strategie von Meta sei das Lernen aus einzigartigen Daten und Feedbackschleifen in Meta-Produkten.
Zuckerberg rechnet mit weiter steigendem Bedarf an Rechenleistung
Zuckerberg geht davon aus, dass die Entwicklung von KI weiterhin rechenintensiv sein wird. Historisch gesehen hätten die fortschrittlichsten Sprachmodelle derzeit etwa das Zehnfache an Rechenleistung pro Jahr für das Training benötigt. Dieser Trend könnte sich fortsetzen, auch wenn nicht klar ist, in welchem Ausmaß.
Trotz der Ungenauigkeit der Prognose will Zuckerberg massiv in Rechenzentren und eigene KI-Chips investieren: "Wir spielen hier um den Sieg und ich erwarte, dass wir weiter aggressiv in diesen Bereich investieren."
Vor rund einer Woche kündigte Zuckerberg an, bis Ende des Jahres rund 600.000 GPUs für das KI-Training im Einsatz zu haben. Zudem bestätigte Meta, dass es noch in diesem Jahr eine zweite Version des selbst entwickelten KI-Chips "Artemis" in Produktion bringen will.