Meta entwickelt unter den Codenamen "Mango" und "Avocado" neue KI-Modelle für Bilder, Videos und Text. Die Veröffentlichung ist für die erste Jahreshälfte 2026 geplant, berichtet das Wall Street Journal unter Berufung auf interne Aussagen von Metas KI-Chef Alexandr Wang. Wang erklärte in einem internen Q&A mit Produktchef Chris Cox, dass "Mango" auf visuelle Inhalte fokussiert ist, während das Sprachmodell "Avocado" besonders gut im Programmieren sein soll. Zudem erforscht Meta sogenannte Weltmodelle, die ihre Umgebung visuell erfassen.
Hintergrund ist eine Umstrukturierung, bei der CEO Mark Zuckerberg persönlich Forscher von OpenAI abwarb und die Abteilung "Meta Superintelligence Labs" unter Wangs Leitung gründete. Der Markt für Bildgenerierung ist zudem umkämpft. Gerade erst hatte Google mit Nano Banana Pro ein beeindruckendes Modell mit präziser Promptbefolgung veröffentlicht, wenige Wochen später legte OpenAI mit GPT Image 1.5 nach. Zuletzt hatte Meta im April die vierte Generation seiner Llama-Reihe vorgestellt und arbeitet für den Videofeed Vibes mit Midjourney und Black Forest Labs zusammen.