Anthropic und Snowflake haben eine mehrjährige Partnerschaft über 200 Millionen Dollar geschlossen. Anthropics Sprachmodell Claude wird in die Datenplattform von Snowflake integriert, die weltweit über 12.600 Unternehmen nutzen. Firmen sollen damit komplexe Datenanalysen durchführen und natürliche Spracheingaben verwenden können.
Laut Anthropic-Chef Dario Amodei soll die Zusammenarbeit helfen, KI sicher in bestehende Datensysteme einzubetten. Snowflake-CEO Sridhar Ramaswamy sprach von gemeinsamer Produktentwicklung mit praktischem Nutzen für Kunden. Unternehmen wie Intercom und Simon Data nutzen laut Anthropic Claude bereits über Snowflake Cortex AI für Analysen oder Kundendienst-Automatisierung.
Die EU-Kommission hat eine offizielle Kartelluntersuchung gegen Meta eingeleitet. Im Fokus steht eine neue Richtlinie, die es Drittanbietern von KI erschwert, ihre Dienste über WhatsApp anzubieten. Seit Oktober 2025 verbietet Meta externen Anbietern die Nutzung der „WhatsApp Business Solution“, wenn deren Hauptdienst aus KI besteht. Unter anderem OpenAI musste daher sein ChatGPT-Angebot aus dem Messenger-Dienst entfernen.
Teresa Ribera, Vizepräsidentin der Kommission, warnt davor, dass digitale Marktführer ihre Macht missbrauchen könnten, um Wettbewerber zu verdrängen. Die Untersuchung deckt den Europäischen Wirtschaftsraum ab, mit Ausnahme von Italien, wo bereits eine eigene Prüfung läuft. Sollten sich die Vorwürfe bestätigen, könnte Meta gegen EU-Wettbewerbsregeln zum Missbrauch einer marktbeherrschenden Stellung verstoßen. Die Kommission will die Prüfung nun priorisiert durchführen.
Der geplante 100-Milliarden-Dollar-Deal zwischen Nvidia und OpenAI ist noch nicht unterzeichnet. Das bestätigte Nvidia-Finanzchefin Colette Kress am Dienstag auf einer Konferenz in Arizona. Obwohl die Unternehmen im September Pläne verkündeten, Nvidia-Systeme mit einer Leistung von 10 Gigawatt für OpenAI bereitzustellen, existiert bisher nur eine Absichtserklärung. Kress betonte, man arbeite noch an einer endgültigen Vereinbarung.
Die Verzögerung wirft Fragen zu den zirkulären Geschäften auf, bei denen Tech-Riesen in Start-ups investieren, die das Geld dann für Produkte der Investoren ausgeben. Die möglichen Einnahmen aus dem OpenAI-Deal sind in Nvidias aktueller Umsatzprognose von 500 Milliarden Dollar noch nicht enthalten. Auch ein geplantes 10-Milliarden-Dollar-Investment in den Konkurrenten Anthropic steht noch aus.
Microsoft hat Berichte zurückgewiesen, wonach das Unternehmen Wachstumsziele für den Verkauf von KI-Software gesenkt habe, nachdem viele Vertriebsteams die Vorgaben im letzten Geschäftsjahr verfehlt hatten. Laut The Information schafften in einer US-Einheit weniger als 20 Prozent der Verkäufer das Ziel von 50 Prozent Wachstum beim Azure-Produkt Foundry, einer Plattform zur Entwicklung von KI-Agenten. In einem anderen Team wurde das Ziel von ursprünglich 100 auf 50 Prozent gesenkt.
Microsoft erklärte gegenüber CNBC, man habe die Gesamtziele nicht angepasst, und warf The Information vor, Wachstum und Quoten verwechselt zu haben. Die Aktie verlor dennoch zeitweise mehr als zwei Prozent – ein Hinweis darauf, dass Investoren die Zweifel an der Marktdynamik ernst nehmen.
Eine neue Untersuchung von MATS und Anthropic zeigt, dass KI-Modelle wie Claude Opus 4.5, Sonnet 4.5 und GPT-5 in simulierten Tests Smart-Contract-Schwachstellen erkennen und ausnutzen können. Auf dem Benchmark SCONE-bench wurden 405 reale Angriffe zwischen 2020 und 2025 analysiert. Dabei entwickelten die Modelle Exploits mit einem simulierten Schaden von bis zu 4,6 Millionen US-Dollar.
In einem weiteren Versuch analysierten die KI-Agenten 2849 neue Verträge und entdeckten zwei bislang unbekannte Schwachstellen. GPT‑5 erzielte bei rund 3.476 Dollar API‑Kosten simulierte Einnahmen (‘exploits worth’) von 3.694 Dollar. Der durchschnittliche Nettogewinn lag bei 109 Dollar pro Exploit. Alle Tests fanden in isolierten Umgebungen statt.
Die Forscher sehen in den Ergebnissen einen Hinweis auf reale Risiken, aber auch Potenzial für Verteidigungstools. Anthropic hatte vor Kurzem eine Studie veröffentlicht, die zeigte, dass KI-Modelle die Cybersecurity stärken können.
Google startet offiziell Workspace Studio, ein Tool zur Erstellung und Verwaltung von KI-Agenten in Google Workspace. Damit lassen sich ohne Programmierkenntnisse einfache Aufgaben oder komplexe Abläufe automatisieren. Grundlage ist das agentische KI-Modell Gemini 3, das eigenständig über längere Zeit an Aufgaben arbeiten und dabei Tools nutzen kann. Im Studio wird es in Workflows eingebunden und mit Anweisungen sowie Werkzeugen ausgestattet. Microsoft, OpenAI und andere bieten ähnliche Tools.
Google testet in seinem generellen Webseiten-News-Feed "Discover" eine neue KI-Funktion, die redaktionelle Überschriften in kürzere und teilweise Clickbait-Überschriften umschreibt. Also genau die Art von Überschrift, die gut ist für hohes Engagement, aber schlecht für die Gesellschaft – und laut Googles eigenen Discover-Regeln sogar verboten.
Googles Discover-Regeln für Überschriften. | Bild: via Google
Google erklärte gegenüber The Verge, es handle sich um einen kleinen Test für eine begrenzte Zielgruppe, damit Nutzer Inhalte schneller erfassen. Der Eingriff betrifft aber redaktionelle Entscheidungen.