Anzeige
Skip to content
Read full article about: Google schließt Milliarden-Deal mit Meta über KI-Chips und greift Nvidia an

Meta hat einen mehrjährigen Vertrag über mehrere Milliarden Dollar mit Google abgeschlossen, um dessen KI-Chips – Tensor Processing Units (TPUs) – für die Entwicklung neuer KI-Modelle zu mieten. Das berichtet The Information. Meta prüfe zudem, ab nächstem Jahr TPUs direkt für eigene Rechenzentren zu kaufen.

Der Deal fordert Nvidia heraus, das den KI-Chip-Markt dominiert und Meta bisher mit GPUs für das KI-Training beliefert. Erst wenige Tage zuvor hatte Meta angekündigt, Millionen GPUs von Nvidia und von AMD zu kaufen. Google-Cloud-Führungskräfte hätten intern angedeutet, mit TPUs bis zu zehn Prozent von Nvidias Jahresumsatz – rund 200 Milliarden Dollar – erobern zu wollen. Zusätzlich hat Google ein Joint Venture mit einer Investmentfirma gegründet, um TPUs an weitere Kunden zu vermieten.

Der Balanceakt: Google ist selbst einer der größten Nvidia-Kunden, da Cloud-Kunden weiterhin GPU-Server verlangen. Google muss also Nvidias neueste Chips einkaufen, um im Cloud-Markt wettbewerbsfähig zu bleiben – während es Nvidia mit eigenen Chips Marktanteile abnehmen will. OpenAI konnte angeblich allein wegen der Existenz von TPUs die Preise von Nvidia drücken.

Read full article about: OpenAI und Figma verbinden Code und Design nahtlos in beide Richtungen

Eine neue Integration verbindet Figmas Design-Plattform direkt mit OpenAIs Coding-Tool Codex. Teams können damit aus Code automatisch bearbeitbare Figma-Designs erzeugen und umgekehrt Designs in funktionierenden Code umwandeln. Die Verbindung nutzt den offenen MCP-Standard und unterstützt Figma Design, Figma Make und FigJam. Die Einrichtung erfolgt direkt in der Codex-Desktop-App für macOS.

Bisherige Lösungen für den Übergang zwischen Figma und Code waren meist Einbahnstraßen: Figmas Dev Mode lieferte einfache HTML/CSS-Schnipsel, Plugins exportierten Designs als React- oder HTML-Code, Figma Make generierte React-Komponenten per Texteingabe. Diese Werkzeuge arbeiteten jedoch einzeln und ohne tiefes Verständnis des gesamten Projekts. Die neue Integration soll erstmals eine durchgängige Verbindung schaffen, bei der die KI gleichzeitig auf Code, Figma-Dateien und Design-System zugreifen kann.

Figma war bereits einer der ersten Partner mit einer eigenen ChatGPT-App und nutzt intern ChatGPT Enterprise. Laut OpenAI greifen über eine Million Menschen wöchentlich auf Codex zurück, die Nutzung stieg seit Jahresbeginn um über 400 Prozent.

Read full article about: MEMORY.md: Claude Code merkt sich jetzt Vorlieben und wendet sie automatisch an

Claude Code kann sich ab sofort selbstständig Notizen machen und Gelerntes innerhalb eines Projekts über Sitzungen hinweg abrufen, etwa Debugging-Muster, Projektkontext und bevorzugte Arbeitsweisen. Bisher mussten Nutzer solche Informationen manuell bzw. per /init in CLAUDE.md-Dateien festhalten. Die neue Auto-Memory-Funktion ergänzt das: Claude legt pro Projekt eigenständig eine MEMORY.md-Datei an, in der es Erkenntnisse festhält und in späteren Sitzungen desselben Projekts automatisch wieder abruft. Wer zum Beispiel in einem Projekt auf ein kniffliges Debugging-Problem stößt, muss die Lösung nicht erneut erklären. Nutzer können Claude auch direkt auffordern, bestimmte Informationen zu speichern. Die Funktion ist standardmäßig aktiviert und lässt sich per /memory, Einstellungsdatei oder Umgebungsvariable deaktivieren.

Kürzlich hat Claude Code noch ein weiteres großes Update bekommen: Eine lokal laufende Sitzung lässt sich jetzt von unterwegs per Smartphone, Tablet oder Browser über claude.ai/code weiterführen, ohne dass Daten in die Cloud wandern.

Read full article about: Anthropic kauft Startup Vercept, um Claudes Computersteuerung zu verbessern

Anthropic übernimmt das KI-Startup Vercept, um die Computernutzungsfähigkeiten seines KI-Modells Claude zu verbessern. Vercept entwickelte KI, die direkt auf dem Computer des Nutzers arbeitet, Bildschirminhalte versteht und Aufgaben ausführt. Die Gründer Kiana Ehsani, Luca Weihs und Ross Girshick wechseln mit ihrem Team zu Anthropic, die Übernahmesumme ist nicht bekannt.

Laut Anthropic löst Vercept schwierige Wahrnehmungs- und Interaktionsprobleme, die für die Computernutzung durch KI zentral sind. Gemeint ist damit, dass ein KI-Modell Screenshots oder Videos von für Menschen gemachten Oberflächen auswerten und bedienen kann, ohne dafür eine spezielle Programmierschnittstelle (API) zu benötigen.

Vercept wird sein eigenes Desktop-KI-Agenten-Produkt "Vy" in den kommenden Wochen einstellen. Anthropic dürfte insbesondere am Oberflächenerkennungsmodell "VyUI" interessiert sein, das angeblich in Vergleichstests besser abschnitt als vergleichbare OpenAI-Technologie.

Benchmark (UI element identification / grounding) VyUI accuracy OpenAI model
ScreenSpot v1 92% 18.3%
ScreenSpot v2 94.7% 87.9%
GroundUI Web 84.8% 82.3%

Claude kann bereits mehrstufige Aufgaben in laufenden Anwendungen erledigen: Mit dem kürzlich veröffentlichten Modell Sonnet 4.6 erreicht Claude auf dem OSWorld-Vergleichstest 72,5 Prozent, der genau diese Fähigkeit misst, gegenüber weniger als 15 Prozent Ende 2024. Das Vercept-Team soll diese Fähigkeit weiter steigern.

Suno-Investorin räumt ein: KI-Musik steht in direkter Konkurrenz zu menschlichen Künstlern

Suno-Investorin C.C. Gong erzählt bei X, dass sie kaum noch Spotify nutzt – und liefert damit ungewollt ein Argument für die Musikindustrie im Rechtsstreit gegen das KI-Musik-Startup.

Read full article about: KI-Entwickler Andrej Karpathy: "Coding hat sich seit Dezember 2025 grundlegend verändert"

Andrej Karpathy, ehemaliger KI-Entwickler von Tesla und OpenAI, bestätigt seine Aussage, dass sich Programmieren durch KI-Agenten in den vergangenen zwei Monaten grundlegend verändert hat. Laut Karpathy funktionierten KI-Agenten vor Dezember 2026 kaum, seitdem aber schon – dank höherer Modellqualität und Ausdauer bei langen Aufgaben.

Als Beispiel beschreibt er, wie ein KI-Agent an einem Wochenende selbstständig ein Video-Analyse-Dashboard einrichtete: Er gab die Aufgabe in Englisch ein, der Agent arbeitete 30 Minuten, löste Probleme eigenständig und lieferte ein fertiges Ergebnis. Vor drei Monaten wäre das noch ein ganzes Wochenendprojekt gewesen.

Programmieren wird dadurch unkenntlich. Man tippt keinen Computercode mehr in einen Editor, so wie es seit der Erfindung des Computers war – diese Ära ist vorbei. Man startet KI-Agenten, gibt ihnen Aufgaben auf Englisch und verwaltet und überprüft ihre Arbeit parallel.

Karpathy via X

Karpathy betont aber: Die Systeme seien nicht perfekt und benötigten weiterhin menschliche Richtungsvorgaben, Urteilsvermögen und Kontrolle.

Karpathys Einordnung ist interessant, denn noch im Oktober 2025 bezeichnete er den Hype um KI-Agenten als übertrieben: Die Produkte seien lange nicht marktreif. Diese Meinung änderte er grundlegend nach den Veröffentlichungen von Opus 4.5 und Codex 5.2 im Winter.

Read full article about: Alibabas offene Qwen-3.5-Modellreihe liefert mehr Leistung bei weniger Rechenaufwand

Alibaba hat die neue Qwen-3.5-Modellreihe erweitert. Sie umfasst jetzt vier Modelle: Qwen3.5-Flash, Qwen3.5-35B-A3B, Qwen3.5-122B-A10B und Qwen3.5-27B. Laut Alibaba liefern die Modelle mehr Leistung bei weniger Rechenaufwand. Sie verarbeiten Text, Bilder und Video als Eingabe und geben Text aus. Zuerst wurde Mitte Februar Qwen3.5-397B-A17B vorgestellt.

Das kleinere Modell Qwen3.5-35B-A3B übertrifft demnach das deutlich größere Vorgängermodell Qwen3-235B-A22B – ein Hinweis darauf, dass bessere Architektur, Datenqualität und Reinforcement Learning wichtiger sind als reine Modellgröße. Die größeren Varianten 122B und 27B sollen den Abstand zu Spitzenmodellen weiter verringern, besonders bei komplexen Agentenszenarien.

Die Benchmarks zeigen, dass Alibabas Qwen-3.5-Modelle können in Benchmarks mit westlichen Spitzenmodellen wie OpenAIs GPT-5 mini, gpt-oss-120b und Anthropics Claude Sonnet 4.5 mithalten oder diese teils übertreffen. Das größte Modell Qwen3.5-122B-A10B führt in mehreren Tests: Bei agentenbasierter Werkzeugnutzung (BFCL V4, 72,2) und agentenbasierter Websuche (BrowseComp, 63,8) liegt es vor allen Konkurrenten. Im Mathe-Benchmark HMMT erreicht es 91,4 – knapp hinter GPT-5 mini (92,0). Bei visuellem Schlussfolgern (MMMU-Pro, 76,9) und Dokumentenerkennung (OmniDocBench, 89,8) setzt es sich ebenfalls an die Spitze. Claude Sonnet 4.5 punktet dagegen beim agentenbasierten Terminal-Coding (49,4) und beim Embodied Reasoning (64,7) klar vor allen Qwen-Modellen. GPT-5 mini liegt beim multilingualen Wissen (MMMLU, 90,0) und bei der Mathematik vorn. Auffällig: Das kleine Qwen3.5-35B-A3B mit nur 3 Milliarden aktiven Parametern hält in vielen Tests mit den wesentlich größeren Modellen mit.
Alibabas Qwen-3.5-Modelle können in Benchmarks mit westlichen Spitzenmodellen wie OpenAIs GPT-5 mini, gpt-oss-120b und Anthropics Claude Sonnet 4.5 mithalten oder diese teils übertreffen. | Bild: Alibaba

Alle Modelle sind auf Hugging Face, ModelScope und über Qwen Chat verfügbar. Sie stehen unter der Apache License 2.0, einer freizügigen Open-Source-Lizenz, die kommerzielle Nutzung, Veränderung und Weiterverbreitung erlaubt. Qwen3.5-Flash ist die gehostete Produktionsversion mit einer Kontextlänge von einer Million Token und eingebauten Tools. Der API-Preis liegt bei 0,10 Dollar pro Million Input-Token und 0,40 Dollar pro Million Output-Token.

Read full article about: Perplexity "Computer" bündelt verschiedene agentische KI-Modelle für komplexe Arbeitsabläufe

Perplexity hat eine neue Chat-Oberfläche gelauncht, die die agentischen Fähigkeiten aktueller KI-Modelle besser zum Einsatz bringen soll. Das neue Produkt "Perplexity Computer" bündelt die Fähigkeiten verschiedener KI-Modelle in einem System. Ähnlich wie Claude Cowork, aber im Browser und mit Zugriff auf Modelle verschiedener Hersteller, soll es ganze Arbeitsabläufe eigenständig ausführen.

Nutzer beschreiben ein gewünschtes Ergebnis, das System zerlegt es in Aufgaben und erstellt Unter-Agenten für Webrecherche, Dokumentenerstellung, Datenverarbeitung oder API-Aufrufe. Perplexity begründet den Ansatz damit, dass sich KI-Modelle entgegen der gängigen Meinung nicht angleichen, sondern zunehmend spezialisieren. Jedes Spitzenmodell sei bei anderen Aufgaben am besten, weshalb ein vollständiger Arbeitsablauf Zugriff auf alle Modelle benötige.

Als Kern-Modell nutzt Perplexity Computer Opus 4.6, ergänzt durch Gemini, Grok, ChatGPT 5.2, Nano Banana für Bilder und Veo 3.1 für Video. Jede Aufgabe läuft laut Perplexity in einer eigenen, abgesicherten Umgebung mit Browser, Dateisystem und Tool-Anbindungen. Perplexity Computer ist im Max-Plan für 200 US-Dollar monatlich verfügbar.