Anzeige
Skip to content

Matthias Bastian

Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Read full article about: Claude Cowork: Anthropics agentisches KI-System für Nicht-Entwickler startet offiziell

Claude Cowork ist ab sofort auf allen kostenpflichtigen Plänen für macOS und Windows verfügbar. Anthropic führt zudem neue Steuerungsfunktionen für Unternehmen ein: rollenbasierte Zugriffskontrollen, Budgetlimits pro Team, erweiterte Nutzungsanalysen und OpenTelemetry-Überwachung.

Neu ist ein Zoom-Connector, der Besprechungszusammenfassungen und Aufgaben direkt in Claude Cowork einbindet. Admins können zudem einzelne Aktionen innerhalb von Connectoren einschränken, etwa Schreibzugriffe deaktivieren.

Claude Cowork ist die Nicht-Entwickler-Variante des unter Programmierern beliebten KI-Tools Claude Code. Wissensarbeiter aus Marketing, Finanzen und Recht nutzen den Assistenten laut Anthropic für Aufgaben wie Projektberichte, Präsentationen und Recherchen. Vom Claude-Chat im Web unterscheidet sich Cowork hauptsächlich dadurch, dass es direkt auf Dateien auf der eigenen Festplatte zugreifen kann. Die Desktop-App gibt es unter claude.com/download. Wie alle agentischen KI-Systeme hat auch Claude Cowork neue Einfallstore für Cyber-Angriffe.

Anthropic-Partner Microsoft hat die Cowork-Technologie für seinen Microsoft Copilot adaptiert; eine Version der Software ist gerade im Test und soll bald breiter ausgerollt werden.

Read full article about: ChatGPT Pro: OpenAI führt neuen 100-Dollar-Plan für intensive Codex-Nutzung ein

OpenAI kündigt einen neuen 100-Dollar-Bezahlplan an. Das Unternehmen strukturiert seine Abonnements neu, um laut eigenen Angaben der wachsenden Nutzung seines Programmier-Werkzeugs Codex gerecht zu werden.

Die Pro-Stufe für 100 Dollar pro Monat (bisher: 200 US-Dollar) bietet fünfmal mehr Codex-Nutzung als der Plus-Plan (20 US-Dollar) und richtet sich laut OpenAI an Nutzer, die längere und aufwendigere Codex-Sitzungen benötigen. OpenAI passt die Codex-Nutzung im Plus-Plan so an, dass mehr Sitzungen über die Woche verteilt möglich sind, statt langer Sitzungen an einem einzigen Tag.

Der Plus-Plan bleibt laut OpenAI für 20 Dollar pro Monat das beste Angebot für die tägliche Codex-Nutzung, während die neue Pro-Stufe einen günstigeren Aufstieg für intensive Nutzer bieten soll.

Funktion Plus (20 $/Monat) Pro (ab 100 $/Monat)
Reasoning-Modelle Fortgeschritten Pro-Reasoning mit GPT-5.4 Pro
Nachrichten und Uploads Erweitert Unbegrenzte Datei-Uploads
Bilderstellung Erweitert und schneller Unbegrenzt und schneller
Deep Research und Agentenmodus Erweitert Maximal
Erinnerung und Kontext Erweitert Maximal
Projekte, Aufgaben und individuelle GPTs Enthalten Erweitert
Codex Codex-Agent enthalten Maximale Codex-Aufgaben
Nutzungsvolumen Standardumfang 5x oder 20x mehr Nutzung
Neue Funktionen Frühzeitiger Zugriff Experimentelle Vorschau

Die bisherige 200-Dollar-Pro-Stufe bleibt als Option mit dem höchsten Nutzungsvolumen bestehen, wird aber auf der Angebotsseite nicht mehr erwähnt und ist daher womöglich ein Auslaufmodell. OpenAI unterbietet mit dem neuen Plan deutlich die Pro-Pläne von Anthropic und Google, die ab 200 US-Dollar aufwärts kosten.

Read full article about: Google Gemini erstellt jetzt interaktive Visualisierungen direkt im Chat

Google Gemini kann jetzt Fragen und komplexe Konzepte direkt im Chat in interaktive Visualisierungen umwandeln. Nutzer können dabei Variablen anpassen, 3D-Modelle drehen und Daten erkunden. Die Funktion soll ein tieferes Verständnis von Inhalten ermöglichen.

Um sie zu nutzen, ruft man gemini.google im Browser auf und wählt das Modell "Pro" aus. Anschließend kann man Gemini mit Formulierungen wie "show me" oder "help me visualize" auffordern, ein Thema visuell darzustellen. Die Visualisierungen lassen sich individuell anpassen.

Prompt: Show me how Google's AI-generated answers, with a conversion rate of just one percent to sources, are draining traffic from the web. | Image: THE DECODER

Anthropic hatte bereits Mitte März eine ähnliche Funktion für seinen Chatbot Claude vorgestellt. Claude erstellt ebenfalls interaktive Diagramme und Grafiken direkt im Chat, wenn es sinnvoll passt, oder wenn der Nutzer es explizit anfordert.

Read full article about: Stability AI bringt Brand Studio für markenkonformen KI-Content

Stability AI war mit dem Bildmodell Stable Diffusion mal eine große Nummer bei Open-Source-KI. Mittlerweile setzt das Unternehmen auf kommerzielle Produkte und hat mit "Brand Studio" eine neue Plattform für professionelle Kreativteams vorgestellt. Die Plattform richtet sich an Unternehmen, die KI-generierte Inhalte an ihre Markenidentität anpassen wollen.

Im Zentrum steht "Brand Central", wo Teams eigene Markenmodelle trainieren und Kampagnenvorlagen anlegen können. Ein "Producer Mode" erstellt aus Textbeschreibungen automatisch Produktionspläne und führt diese Schritt für Schritt aus. Das sogenannte "Curated Model Routing" wählt dabei automatisch das beste KI-Modell für den jeweiligen Anwendungsfall aus, darunter Stable Diffusion und Drittanbieter-Modelle. Neue Werkzeuge wie "Precision Inpainting" ermöglichen gezielte Bildbearbeitung. Brand Studio gibt es als kostenlose Core-Version und als Enterprise-Plan.

Read full article about: Analyse zeigt: Ein Viertel aller KI-Zitate basiert auf journalistischen Inhalten

Ein Viertel aller KI-Zitate basiert auf journalistischen Inhalten. Das zeigt eine Analyse der PR-Datenbank Muckrack, die 15 Millionen Zitate aus KI-Antworten von Gemini, Perplexity, Claude und ChatGPT ausgewertet hat, wie Press Gazette berichtet. Besonders häufig zitiert werden Fachmedien und Spezialjournalisten. Unter den weltweit am häufigsten zitierten Journalisten liegt der ehemalige Business-Insider-Chef Henry Blodget auf Platz eins. Unter den meistzitierten Publikationen weltweit führt Reuters, gefolgt von Forbes. In Großbritannien liegt The Guardian vorn, gefolgt vom Fachmagazin Homes and Gardens.

Rang Publikation Themenbereich
1 reuters.com Nachrichten
2 forbes.com Wirtschaft
3 theguardian.com Nachrichten
4 ft.com Wirtschaft
5 cnbc.com Wirtschaft

Für die Analyse hat Muckrack Millionen von Anfragen an die vier großen KI-Dienste Gemini, Perplexity, Claude und ChatGPT gestellt und erfasst, wie oft bestimmte Journalisten und Medien in den Antworten als Quelle verlinkt wurden. Muckrack hat auf Basis der Daten ein neues Feature eingeführt, das die "KI-Sichtbarkeit" von Journalisten und Medien in drei Stufen anzeigt.

Eine andere Analyse von Googles KI-Antworten direkt in der Suche, den sogenannten AI Overviews, zeigt, dass über alle Suchanfragen hinweg besonders häufig Facebook und Reddit zitiert werden.

Read full article about: Musk fordert Milliarden-Schadensersatz von OpenAI - für die OpenAI-Stiftung

Elon Musk hat seine Klage gegen OpenAI und Microsoft geändert. Er fordert nun, dass mögliche Schadensersatzzahlungen von mehr als 150 Milliarden Dollar nicht an ihn, sondern an die gemeinnützige Stiftung von OpenAI gehen sollen. Zudem verlangt er die Absetzung von OpenAI-Chef Sam Altman aus dem Vorstand der Stiftung, berichtet das Wall Street Journal. Musks Anwalt Marc Toberoff sagte, Musk wolle "keinen einzigen Dollar für sich selbst".

Musk wirft OpenAI vor, sich von seiner gemeinnützigen Mission entfernt zu haben und ihn als Spender betrogen zu haben. Er fordert, dass Altman und OpenAI-Präsident Greg Brockman ihre Anteile und finanziellen Vorteile an die gemeinnützige Stiftung abgeben. Der Prozess soll noch im April in Oakland, Kalifornien, beginnen.

OpenAI bezeichnete die Klage auf X als "Belästigungskampagne, getrieben von Ego, Eifersucht und dem Wunsch, einen Konkurrenten auszubremsen". OpenAI hat zudem die Generalstaatsanwälte von Delaware und Kalifornien aufgefordert, Musks Verhalten zu untersuchen. OpenAI wird derzeit mit 852 Milliarden Dollar bewertet und plant einen Börsengang.

Read full article about: Microsofts Bing-Team veröffentlicht Embedding-Modell Harrier als Open Source

Microsofts Bing-Team (ja, genau!) stellt das Embedding-Modell "Harrier" als Open Source bereit. Harrier unterstützt mehr als 100 Sprachen, bietet ein Kontextfenster von 32.000 Tokens und wurde mit mehr als zwei Milliarden Trainingsbeispielen sowie synthetischen Daten von GPT-5 trainiert. Laut des Teams belegt Harrier Platz 1 auf dem mehrsprachigen MTEB-v2-Benchmark und übertrifft laut Microsoft auch proprietäre Modelle von OpenAI und Amazon.

Rank (Borda) Model Zero-shot Active Params (B) Total Params (B) Embedding Dim Max Tokens
1 harrier-oss-v1-27b 78% 25.6 27.0 5376 131072
2 KaLM-Embedding-Gemma3-12B-2511 73% 10.8 11.8 3840 32768
3 llama-embed-nemotron-8b 99% 7.0 7.5 4096 32768
4 Qwen3-Embedding-8B 99% 6.9 7.6 4096 32768
5 gemini-embedding-001 99% 3072 2048
6 Qwen3-Embedding-4B 99% 3.6 4.0 2560 32768
7 Octen-Embedding-8B 99% 6.9 7.6 4096 32768
8 F2LLM-v2-14B 88% 13.2 14.0 5120 40960
9 F2LLM-v2-8B 88% 6.9 7.6 4096 40960
10 harrier-oss-v1-0.6b 78% 0.440 0.596 1024 32768

Neben dem großen 27-Milliarden-Parameter-Modell gibt es zwei kleinere Varianten (0,6B und 270M) für schwächere Hardware. Alle Modelle sind bei Hugging Face unter der MIT-Lizenz verfügbar. Das Team will die Technik künftig in Bing und neue Grounding-Dienste für KI-Agenten integrieren.

Embedding-Modelle sind dafür zuständig, Informationen zu suchen, abzurufen und zu ordnen, damit KI-Systeme korrekte Antworten liefern können. Laut Microsoft gewinnen sie im Zeitalter von KI-Agenten stark an Bedeutung, da diese eigenständig Informationen suchen, Kontext über mehrere Schritte aktualisieren und sich Dinge merken müssen.

Read full article about: Tokenmaxxing im Silicon Valley: Meta-Mitarbeiter jagen Highscore beim KI-Verbrauch

Meta hat ein internes Rangsystem, bei dem Mitarbeiter um den höchsten KI-Token-Verbrauch wetteifern. Tokens sind Dateneinheiten, die KI-Modelle im Betrieb verarbeiten. Ein Mitarbeiter erstellte im Intranet eine Rangliste namens "Claudeonomics", die den Verbrauch von mehr als 85.000 Beschäftigten misst, berichtet The Information. In 30 Tagen wurden 60 Billionen Tokens verbraucht. Der Spitzenreiter nutzte durchschnittlich 281 Milliarden Tokens.

Die Gamifizierung mit Ranglisten und Titeln wie "Token Legend", "Model Connoisseur" und "Cache Wizard" soll Mitarbeiter motivieren, KI-Tools in ihren Arbeitsalltag einzubauen. Allerdings zeigt die Praxis auch Schwächen: Einige Mitarbeiter lassen KI-Agenten stundenlang laufen, nur um ihren Verbrauch zu steigern.

"Tokenmaxxing" gilt im Silicon Valley derzeit als Produktivitätsmaß: Nvidia-Chef Jensen Huang sagte, er wäre "zutiefst beunruhigt", wenn ein Ingenieur mit 500.000 Dollar Gehalt nicht mindestens 250.000 Dollar an Tokens jährlich verbrauche. Meta-CTO Andrew Bosworth berichtete laut Forbes, ein Top-Ingenieur gebe sein Gehaltsäquivalent für Tokens aus und steigere seine Produktivität angeblich um das Zehnfache.

Konkrete Zahlen, die solche Thesen stützen, hat bislang allerdings kein Unternehmen vorgelegt. Das dürfte auch daran liegen, dass die Messung von gesteigerter Einzelproduktivität und deren Auswirkung auf den Unternehmenserfolg schwierig ist.