Anzeige
Skip to content
Read full article about: Meta plant neue KI-Modelle Mango und Avocado für 2026

Meta entwickelt unter den Codenamen "Mango" und "Avocado" neue KI-Modelle für Bilder, Videos und Text. Die Veröffentlichung ist für die erste Jahreshälfte 2026 geplant, berichtet das Wall Street Journal unter Berufung auf interne Aussagen von Metas KI-Chef Alexandr Wang. Wang erklärte in einem internen Q&A mit Produktchef Chris Cox, dass "Mango" auf visuelle Inhalte fokussiert ist, während das Sprachmodell "Avocado" besonders gut im Programmieren sein soll. Zudem erforscht Meta sogenannte Weltmodelle, die ihre Umgebung visuell erfassen.

Hintergrund ist eine Umstrukturierung, bei der CEO Mark Zuckerberg persönlich Forscher von OpenAI abwarb und die Abteilung "Meta Superintelligence Labs" unter Wangs Leitung gründete. Der Markt für Bildgenerierung ist zudem umkämpft. Gerade erst hatte Google mit Nano Banana Pro ein beeindruckendes Modell mit präziser Promptbefolgung veröffentlicht, wenige Wochen später legte OpenAI mit GPT Image 1.5 nach. Zuletzt hatte Meta im April die vierte Generation seiner Llama-Reihe vorgestellt und arbeitet für den Videofeed Vibes mit Midjourney und Black Forest Labs zusammen.

Read full article about: Anthropic veröffentlicht Agent Skills als offenen Standard für KI-Plattformen

Anthropic veröffentlicht "Agent Skills" als offenen Standard unter agentskills.io. Damit sollen Skills plattformübergreifend funktionieren – dieselbe Fähigkeit soll sowohl in Claude als auch in anderen KI-Plattformen nutzbar sein. Anthropic vergleicht den Ansatz mit dem Model Context Protocol (MCP) und arbeitet nach eigenen Angaben bereits mit Partnern aus dem Ökosystem zusammen.

Gleichzeitig erweitert das Unternehmen die Skills-Funktion für Claude. Skills sind wiederholbare Arbeitsabläufe, die den KI-Assistenten an bestimmte Aufgaben anpassen. Administratoren von Team- und Enterprise-Plänen können Skills nun zentral verwalten und für alle Nutzer bereitstellen. Einzelne Nutzer können diese trotzdem deaktivieren.

Zudem wurde das Erstellen von Skills vereinfacht: Nutzer beschreiben ihre Anforderungen, Claude hilft beim Aufbau. Unter claude.com/connectors stellt Anthropic ein Verzeichnis mit Partner-Skills von Notion, Canva, Figma und Atlassian bereit. Die technische Dokumentation für Entwickler findet sich unter platform.claude.com/docs. Skills sind über Claude-Apps, Claude Code und die Entwickler-API verfügbar.

Read full article about: Vibe-Coding-App Lovable läutet nach Finanzierungsrunde die "Age of the Builder" ein

Das europäische KI-Startup Lovable hat eine Series-B-Finanzierungsrunde über 330 Millionen Dollar abgeschlossen und wird nun mit 6,6 Milliarden Dollar bewertet. Die unter anderem von Google angeführte Runde umfasst Investitionen von Nvidia, HubSpot und der Deutschen Telekom. Das Unternehmen, mit der Nutzer Webanwendungen durch Textprompts erstellen können, gilt als eines der am schnellsten wachsenden Startups weltweit. Laut eigenen Angaben erreichte das in Schweden ansässige Start-up mit inzwischen 120 Mitarbeitenden innerhalb von acht Monaten nach der ersten Million einen jährlich wiederkehrenden Umsatz von 100 Millionen Dollar. Im Sommer schloss es auch eine der größten europäischen Series-A-Runden über 200 Millionen bei einer Bewertung von 1,8 Milliarden US-Dollar ab.

Lovable ruft dabei die "Age of the Builder" aus: Eine Zeit, in der Menschen ohne technische Vorkenntnisse – etwa Lehrer, Marketer oder Gründer – ihre Ideen eigenständig in Software verwandeln können. Trotz des rasanten Wachstums bleibt Lovable in absoluten Nutzerzahlen hinter Marktführern wie ChatGPT zurück. Kürzlich sammelte der US-Konkurrent Cursor 2,3 Milliarden Dollar ein, was den intensiven Wettbewerb im Bereich der KI-gestützten Softwareentwicklung, aber auch den Unterschied im Investitionsvolumen unterstreicht.

Read full article about: Mistral OCR 3 soll Texte günstiger und besser erkennen

Mistral AI hat mit Mistral OCR 3 eine aktualisierte Version seines Modells zur Dokumentenanalyse veröffentlicht. Das System extrahiert nicht nur Texte und eingebettete Bilder, sondern interpretiert auch kursive Handschriften, dichte Formular-Layouts und komplexe Tabellenstrukturen inklusive verbundener Zellen. Laut dem Unternehmen übertrifft die dritte Version den Vorgänger in 74 Prozent der Fälle, vor allem bei der Verarbeitung von Handschriften, gescannten Formularen und komplexen Tabellen. Auch gegenüber Deepseeks spezialisiertem Modell zur Zeichenerkennung schneidet OCR 3 gut ab.

Das Modell ist über eine API oder die im Mai vorgestellte Plattform Document AI verfügbar. Der Preis liegt bei zwei US-Dollar pro 1.000 Seiten, wobei Großaufträge günstiger sind. Das französische Unternehmen, das zuletzt eine große Investition vom Chiphersteller ASML erhalten hat, baut damit seine Positionierung im Bereich der Dokumentenerkennung weiterhin aus, während die Open-Weight-Sprachmodelle der aktuellen Generation hinter kommerziellen Konkurrenten aus den USA zurückbleiben.

Read full article about: KI im Newsroom: OpenAI launcht Schulungsprogramm für Medienhäuser

OpenAI hat die "Academy for News Organizations" gestartet, eine neue Lernplattform für Journalisten und Publisher. Ziel der Initiative in Zusammenarbeit mit dem American Journalism Project und dem Lenfest Institute ist es, Medienhäusern den Umgang mit Künstlicher Intelligenz näherzubringen. Das Angebot umfasst On-Demand-Schulungen, praktische Anwendungsbeispiele für Recherchen und Übersetzungen sowie Hilfestellungen für interne Richtlinien. OpenAI betont, dass Redaktionen durch die Nutzung von KI effizienter arbeiten sollen, um mehr Zeit für die journalistische Kernarbeit zu haben.

Laut OpenAI wurden bei der Entwicklung der Akademie auch kritische Themen berücksichtigt, etwa die Sorge um Arbeitsplätze und die Zuverlässigkeit von KI-Inhalten. Die Plattform baut auf bestehenden Kooperationen mit Verlagen wie News Corp und Hearst auf und soll im nächsten Jahr weiter ausgebaut werden. Derartige Förderangebote sind vielleicht auch dazu gedacht, die Wogen zu glätten: Auf der anderen Seite streitet sich OpenAI nämlich mit großen Medienhäusern wie der New York Times oder Ziff Davis ums Urheberrecht.

Read full article about: OpenAI startet App-Einreichungen und rollt Store im neuen Jahr aus

OpenAI nimmt ab sofort Einreichungen für ChatGPT-Apps entgegen, die nach einer Prüfung in einem neuen Verzeichnis erscheinen. Die Anwendungen erweitern Konversationen um konkrete Aktionen, etwa zum Bestellen von Lebensmitteln. Nutzer finden das Verzeichnis im Tools-Menü und starten Apps per @-Befehl. Ein Software Development Kit (SDK) steht als Beta bereit, wobei die ersten geprüften Anwendungen Anfang 2026 starten sollen.

Bezüglich der Sicherheit verlangt das Unternehmen unter anderem, dass Apps für alle Zielgruppen geeignet sind und nur zwingend notwendige Informationen abfragen. In dieser frühen Phase können Entwickler aus ihren ChatGPT-Apps auf ihre eigenen Websites oder nativen Apps verlinken, um Transaktionen für physische Güter abzuschließen. OpenAI erkundet über die Zeit aber weitere Monetarisierungsoptionen, einschließlich für digitale Güter, und will dazu später mehr teilen; seit einigen Monaten kooperiert das Unternehmen schon mit PayPal. Die Öffnung folgt auf den Dev Day im Oktober, auf dem OpenAI neben dem Apps-SDK das AgentKit für autonome KI-Agenten präsentierte.

Google stellt günstigeres und schnelleres Gemini-3-Flash-Modell vor

Der Preiskampf bei KI-Modellen verschärft sich: Google bringt mit Gemini 3 Flash ein Modell auf den Markt, das die Konkurrenz von OpenAI und Anthropic bei Kosten und Geschwindigkeit deutlich unterbieten soll. Die Botschaft ist klar: Spitzenleistung muss nicht mehr teuer sein.

Read full article about: Amazon verhandelt über 10-Milliarden-Dollar-Investition in OpenAI

Amazon führt Gespräche über eine Investition von mindestens 10 Milliarden Dollar in OpenAI. Das berichten drei mit den Diskussionen vertraute Personen gegenüber The Information. Die Bewertung von OpenAI würde dabei auf über 500 Milliarden Dollar steigen. Das Geld soll OpenAI helfen, Serverkosten zu decken, darunter einen kürzlich vereinbarten 38-Milliarden-Dollar-Deal mit Amazon Web Services (AWS). Teil der Vereinbarung wäre auch, dass OpenAI Amazons eigene KI-Chips "Trainium" nutzt, anstatt sich nur auf Nvidia zu verlassen.

Zusätzlich diskutieren die Unternehmen über eine mögliche Umwandlung von ChatGPT in eine Einkaufsplattform. Allerdings könnte Microsofts exklusives Recht, OpenAI-Modelle an Cloud-Kunden zu verkaufen, die Möglichkeiten für Amazon einschränken. Die Gespräche begannen im Oktober nach der Unternehmensumstrukturierung von OpenAI, sind aber noch nicht abgeschlossen. OpenAI benötigt weiterhin dringend Kapital, da das Unternehmen erwartet, in den nächsten vier Jahren über 100 Milliarden Dollar zu verbrennen.

Read full article about: Google hat einen neuen KI-Agenten, der helfen soll, den Tag zu planen

Google hat einen neuen KI-Agenten, der helfen soll, den Tag zu planen. Der experimentelle Produktivitätsassistent namens CC stammt aus den Google Labs und basiert auf Gemini. Nach der Anmeldung verbindet sich CC mit Gmail, Google Kalender, Google Drive und dem Internet, um den Tagesablauf des Nutzers zu verstehen. Solche KI-Agenten mit Zugriff auf private Daten werfen bekannte Sicherheitsfragen auf.

Jeden Morgen liefert CC eine Zusammenfassung namens "Your Day Ahead" per E-Mail. Diese fasst Termine, wichtige Aufgaben und Neuigkeiten zusammen, etwa anstehende Rechnungen oder Termine. Der Agent erstellt bei Bedarf auch E-Mail-Entwürfe und Kalendereinträge. Nutzer können CC per E-Mail-Antwort steuern, eigene Wünsche mitteilen oder den Agenten bitten, sich Ideen und Aufgaben zu merken.

CC startet als früher Testlauf zunächst für Nutzer ab 18 Jahren in den USA und Kanada. Voraussetzung ist ein privates Google-Konto sowie ein Abo von Google AI Ultra oder anderen kostenpflichtigen Diensten. Interessierte können sich auf der Google Labs-Website für die Warteliste anmelden.

Read full article about: Google verbessert Gemini-Audiomodelle für realistischere KI-Stimmen

Google hat ein Update für Gemini 2.5 Flash Native Audio veröffentlicht, das Sprachassistenten verbessern soll. Das Modell kann nun komplexe Arbeitsabläufe besser bewältigen, Nutzeranweisungen präziser umsetzen und natürlichere Gespräche führen. Die Befolgung von Entwickleranweisungen stieg von 84 auf 90 Prozent. Auch die Gesprächsqualität in mehrstufigen Unterhaltungen wurde verbessert.

Laut Google erreicht das neue Audiomodell bei Funktionsaufrufen 71,5 Prozent Genauigkeit auf dem ComplexFuncBench-Benchmark und liegt damit vor OpenAIs gpt-realtime (66,5 Prozent); allerdings wurde hier wohl nicht gegen die neueste Realtime-Version getestet, die erst gestern erschien.

Das Update ist in Google AI Studio, Vertex AI, Gemini Live und Search Live verfügbar. Google-Cloud-Kunden nutzen die Technologie bereits. Entwickler können das Modell über die Gemini-API testen.