Anthropics Streit mit dem Pentagon geht auch an Google und OpenAI nicht spurlos vorbei. Mehr als 100 Google-KI-Mitarbeiter haben laut der New York Times einen Brief an Jeff Dean, den Chefwissenschaftler von Google Deepmind, geschickt. Dean hatte sich schon zuvor zugunsten von Anthropic ausgesprochen.
Darin fordern sie, dass Google dieselben roten Linien wie Anthropic zieht: keine Überwachung amerikanischer Bürger und keine autonomen Waffen ohne menschliche Beteiligung durch das KI-Modell Gemini. Zusätzlich veröffentlichten fast 50 OpenAI- und 175 Google-Mitarbeiter einen offenen Brief, der die Verhandlungstaktik des Pentagons kritisiert.
Wir hoffen, dass unsere Führungskräfte ihre Differenzen beiseitelegen und gemeinsam weiterhin die aktuellen Forderungen des Kriegsministeriums ablehnen, unsere Modelle für die inländische Massenüberwachung und das autonome Töten von Menschen ohne menschliche Aufsicht einsetzen zu dürfen.
Parallel dazu teilte OpenAI-Chef Sam Altman laut dem Wall Street Journal seinen Angestellten mit, dass OpenAI an einem eigenen Vertrag mit dem Pentagon arbeite. Dieser solle die gleichen Sicherheitsleitplanken beibehalten, die Anthropic fordert. Altman hofft, eine Lösung zu finden, die auch für andere KI-Unternehmen funktioniert.
Meta hat einen mehrjährigen Vertrag über mehrere Milliarden Dollar mit Google abgeschlossen, um dessen KI-Chips – Tensor Processing Units (TPUs) – für die Entwicklung neuer KI-Modelle zu mieten. Das berichtet The Information. Meta prüfe zudem, ab nächstem Jahr TPUs direkt für eigene Rechenzentren zu kaufen.
Der Deal fordert Nvidia heraus, das den KI-Chip-Markt dominiert und Meta bisher mit GPUs für das KI-Training beliefert. Erst wenige Tage zuvor hatte Meta angekündigt, Millionen GPUs von Nvidia und von AMD zu kaufen. Google-Cloud-Führungskräfte hätten intern angedeutet, mit TPUs bis zu zehn Prozent von Nvidias Jahresumsatz – rund 200 Milliarden Dollar – erobern zu wollen. Zusätzlich hat Google ein Joint Venture mit einer Investmentfirma gegründet, um TPUs an weitere Kunden zu vermieten.
Der Balanceakt: Google ist selbst einer der größten Nvidia-Kunden, da Cloud-Kunden weiterhin GPU-Server verlangen. Google muss also Nvidias neueste Chips einkaufen, um im Cloud-Markt wettbewerbsfähig zu bleiben – während es Nvidia mit eigenen Chips Marktanteile abnehmen will. OpenAI konnte angeblich allein wegen der Existenz von TPUs die Preise von Nvidia drücken.
Eine neue Integration verbindet Figmas Design-Plattform direkt mit OpenAIs Coding-Tool Codex. Teams können damit aus Code automatisch bearbeitbare Figma-Designs erzeugen und umgekehrt Designs in funktionierenden Code umwandeln. Die Verbindung nutzt den offenen MCP-Standard und unterstützt Figma Design, Figma Make und FigJam. Die Einrichtung erfolgt direkt in der Codex-Desktop-App für macOS.
Bisherige Lösungen für den Übergang zwischen Figma und Code waren meist Einbahnstraßen: Figmas Dev Mode lieferte einfache HTML/CSS-Schnipsel, Plugins exportierten Designs als React- oder HTML-Code, Figma Make generierte React-Komponenten per Texteingabe. Diese Werkzeuge arbeiteten jedoch einzeln und ohne tiefes Verständnis des gesamten Projekts. Die neue Integration soll erstmals eine durchgängige Verbindung schaffen, bei der die KI gleichzeitig auf Code, Figma-Dateien und Design-System zugreifen kann.
Figma war bereits einer der ersten Partner mit einer eigenen ChatGPT-App und nutzt intern ChatGPT Enterprise. Laut OpenAI greifen über eine Million Menschen wöchentlich auf Codex zurück, die Nutzung stieg seit Jahresbeginn um über 400 Prozent.
Claude Code kann sich ab sofort selbstständig Notizen machen und Gelerntes innerhalb eines Projekts über Sitzungen hinweg abrufen, etwa Debugging-Muster, Projektkontext und bevorzugte Arbeitsweisen. Bisher mussten Nutzer solche Informationen manuell bzw. per /init in CLAUDE.md-Dateien festhalten. Die neue Auto-Memory-Funktion ergänzt das: Claude legt pro Projekt eigenständig eine MEMORY.md-Datei an, in der es Erkenntnisse festhält und in späteren Sitzungen desselben Projekts automatisch wieder abruft. Wer zum Beispiel in einem Projekt auf ein kniffliges Debugging-Problem stößt, muss die Lösung nicht erneut erklären. Nutzer können Claude auch direkt auffordern, bestimmte Informationen zu speichern. Die Funktion ist standardmäßig aktiviert und lässt sich per /memory, Einstellungsdatei oder Umgebungsvariable deaktivieren.
Kürzlich hat Claude Code noch ein weiteres großes Update bekommen: Eine lokal laufende Sitzung lässt sich jetzt von unterwegs per Smartphone, Tablet oder Browser über claude.ai/code weiterführen, ohne dass Daten in die Cloud wandern.
Angeblich wegen KI: Jack Dorseys Fintech Block entlässt fast die Hälfte der Belegschaft
Jack Dorsey entlässt die Hälfte aller Block-Mitarbeiter: KI mache es möglich, mit weniger Leuten zu arbeiten. Gleichzeitig räumt er ein, während Covid zu viele Leute eingestellt zu haben.
Anthropics KI-Assistent Claude bekommt in seiner Desktop-Anwendung Cowork neue Funktionen. Nutzer können nun geplante Aufgaben einrichten, die Claude automatisch zu festgelegten Zeiten ausführt, etwa ein morgendliches Briefing, wöchentliche Tabellen-Updates oder Freitags-Präsentationen für das Team.
Anthropic übernimmt das KI-Startup Vercept, um die Computernutzungsfähigkeiten seines KI-Modells Claude zu verbessern. Vercept entwickelte KI, die direkt auf dem Computer des Nutzers arbeitet, Bildschirminhalte versteht und Aufgaben ausführt. Die Gründer Kiana Ehsani, Luca Weihs und Ross Girshick wechseln mit ihrem Team zu Anthropic, die Übernahmesumme ist nicht bekannt.
Laut Anthropic löst Vercept schwierige Wahrnehmungs- und Interaktionsprobleme, die für die Computernutzung durch KI zentral sind. Gemeint ist damit, dass ein KI-Modell Screenshots oder Videos von für Menschen gemachten Oberflächen auswerten und bedienen kann, ohne dafür eine spezielle Programmierschnittstelle (API) zu benötigen.
Vercept wird sein eigenes Desktop-KI-Agenten-Produkt "Vy" in den kommenden Wochen einstellen. Anthropic dürfte insbesondere am Oberflächenerkennungsmodell "VyUI" interessiert sein, das angeblich in Vergleichstests besser abschnitt als vergleichbare OpenAI-Technologie.
Benchmark (UI element identification / grounding)
VyUI accuracy
OpenAI model
ScreenSpot v1
92%
18.3%
ScreenSpot v2
94.7%
87.9%
GroundUI Web
84.8%
82.3%
Claude kann bereits mehrstufige Aufgaben in laufenden Anwendungen erledigen: Mit dem kürzlich veröffentlichten Modell Sonnet 4.6 erreicht Claude auf dem OSWorld-Vergleichstest 72,5 Prozent, der genau diese Fähigkeit misst, gegenüber weniger als 15 Prozent Ende 2024. Das Vercept-Team soll diese Fähigkeit weiter steigern.