Anzeige
Skip to content

Meta plant neue KI-Modelle Mango und Avocado für 2026

Meta entwickelt unter den Codenamen "Mango" und "Avocado" neue KI-Modelle für Bilder, Videos und Text. Die Veröffentlichung ist für die erste Jahreshälfte 2026 geplant, berichtet das Wall Street Journal unter Berufung auf interne Aussagen von Metas KI-Chef Alexandr Wang. Wang erklärte in einem internen Q&A mit Produktchef Chris Cox, dass "Mango" auf visuelle Inhalte fokussiert ist, während das Sprachmodell "Avocado" besonders gut im Programmieren sein soll. Zudem erforscht Meta sogenannte Weltmodelle, die ihre Umgebung visuell erfassen.

Hintergrund ist eine Umstrukturierung, bei der CEO Mark Zuckerberg persönlich Forscher von OpenAI abwarb und die Abteilung "Meta Superintelligence Labs" unter Wangs Leitung gründete. Der Markt für Bildgenerierung ist zudem umkämpft. Gerade erst hatte Google mit Nano Banana Pro ein beeindruckendes Modell mit präziser Promptbefolgung veröffentlicht, wenige Wochen später legte OpenAI mit GPT Image 1.5 nach. Zuletzt hatte Meta im April die vierte Generation seiner Llama-Reihe vorgestellt und arbeitet für den Videofeed Vibes mit Midjourney und Black Forest Labs zusammen.

Anzeige
DEC_D_Incontent-1

KI-News ohne Hype – von Menschen kuratiert

Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar“‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.

Quelle: WSJ