Meta will mit Llama 4 ein starkes Gegengewicht zu OpenAI & Co. liefern. Doch das Modell kommt später als geplant – und musste technisch wie organisatorisch grundlegend überarbeitet werden.
Meta hat die Veröffentlichung seiner nächsten großen Sprachmodellgeneration Llama 4 mehrfach verschoben. Laut einem Bericht von The Information ist der neue Start nun für Ende des Monats geplant – sofern es nicht erneut zu Verzögerungen kommt. Gründe dafür waren unter anderem schwache Ergebnisse bei Benchmarks für logisches Denken und Mathematik sowie Defizite bei natürlich klingenden Sprachdialogen.
Meta plant eigene Llama-API für Geschäftskunden
Um die Nutzung von Llama in der Wirtschaft voranzutreiben, plant Meta dem Bericht zufolge ein neues Angebot: eine eigene Programmierschnittstelle (API), über die Firmenkunden direkt auf das Modell zugreifen können.
Das interne Projekt trägt den Namen "Llama X" und stammt aus dem Umfeld von Chief Strategy Officer David Wehner. Neben der API soll ein eigenes Team aus Ingenieuren, Vertrieb und Marketing aufgebaut werden, um Geschäftskunden besser betreuen zu können.
Bislang können Entwickler Llama entweder als Open-Source-Modell selbst betreiben oder über Dienste von Cloud-Anbietern wie AWS nutzen. Mit einer eigenen API strebt Meta den Aufbau eines neuen Geschäftsfelds an. Allein in diesem Jahr will Meta bis zu 65 Milliarden Dollar in die KI-Infrastruktur pumpen; ein 200 Milliarden Dollar schweres Rechenzentrumsprojekt ist angeblich in Planung.
Laut The Information erwägt Meta auch, Llama 4 zunächst exklusiv in Meta AI zu integrieren und erst später als Open Source zu veröffentlichen. Dies wäre eine Abkehr von der bisherigen Strategie, neue Llama-Versionen gleichzeitig als Open Source zur Verfügung zu stellen. Ziel könnte es sein, die Nutzerzahlen der Meta-AI-Anwendungen zu erhöhen.
Allerdings droht damit auch ein Statusverlust in der Open-Source-Community, in der sich Meta als Vorreiter positioniert hat. Mit Konkurrenten wie Deepseek und OpenAI, das wieder offene Modelle machen will, hätte Meta hier einen Platz zu verteidigen.
Viele Umbauarbeiten in der Entwicklungsphase
Technisch bedeutet Llama 4 einen Kurswechsel. Meta will bei mindestens einer Version auf die "Mixture of Experts"-Architektur setzen. Dabei werden spezialisierte Modellsegmente nur bei passenden Aufgaben aktiviert, was gegenüber klassischen "dichten" Modellen effizienter sein kann.
Laut The Information war diese Entscheidung intern umstritten und wurde über mehr als ein Jahr kontrovers diskutiert. Ausschlaggebend war dann das chinesische Start-up Deepseek, das mit vergleichsweise geringen Ressourcen hochperformante Modelle vorgelegt hat und dabei diese Methode bereits erfolgreich nutzte.
Schon Ende Januar berichtete The Information, dass die Performance des chinesischen Start-ups Deepseek für Unruhe bei Meta gesorgt hat. Meta reagierte darauf angeblich mit der Einrichtung mehrerer sogenannter "War Rooms", um Deepseeks Methoden zu analysieren und für eigene Entwicklungen nutzbar zu machen. Zwei Teams untersuchen etwa die kostengünstige Trainingsstrategie, ein weiteres Team analysiert mögliche Datenquellen. Ziel sei es, Llama effizienter und wettbewerbsfähiger zu machen.