Anzeige
Skip to content
Read full article about: Anthropics KI-Assistent Claude erledigt mit Cowork jetzt Aufgaben automatisch nach Zeitplan

Anthropics KI-Assistent Claude bekommt in seiner Desktop-Anwendung Cowork neue Funktionen. Nutzer können nun geplante Aufgaben einrichten, die Claude automatisch zu festgelegten Zeiten ausführt, etwa ein morgendliches Briefing, wöchentliche Tabellen-Updates oder Freitags-Präsentationen für das Team.

Ergänzend verweist Anthropic auf die bereits verfügbaren Plugins, die Cowork Fachwissen in bestimmten Bereichen wie Design, Technik oder Recht verleihen. Eine Übersicht der verfügbaren Plugins gibt es hier. Außerdem gibt es einen neuen "Customize"-Bereich in der Seitenleiste von Cowork, über den sich Plugins, Fähigkeiten und Verbindungen zentral verwalten lassen.

Cowork ist als Forschungsvorschau für macOS und Windows verfügbar und steht allen zahlenden Claude-Abonnenten offen. Wie bei allen agentischen KI-Systemen, die anfällig sind für Cybersecurity-Probleme, empfiehlt es sich, genau zu prüfen, auf welche Bereiche des eigenen Computers man der Software Zugriff gewährt.

Read full article about: Anthropic kauft Startup Vercept, um Claudes Computersteuerung zu verbessern

Anthropic übernimmt das KI-Startup Vercept, um die Computernutzungsfähigkeiten seines KI-Modells Claude zu verbessern. Vercept entwickelte KI, die direkt auf dem Computer des Nutzers arbeitet, Bildschirminhalte versteht und Aufgaben ausführt. Die Gründer Kiana Ehsani, Luca Weihs und Ross Girshick wechseln mit ihrem Team zu Anthropic, die Übernahmesumme ist nicht bekannt.

Laut Anthropic löst Vercept schwierige Wahrnehmungs- und Interaktionsprobleme, die für die Computernutzung durch KI zentral sind. Gemeint ist damit, dass ein KI-Modell Screenshots oder Videos von für Menschen gemachten Oberflächen auswerten und bedienen kann, ohne dafür eine spezielle Programmierschnittstelle (API) zu benötigen.

Vercept wird sein eigenes Desktop-KI-Agenten-Produkt "Vy" in den kommenden Wochen einstellen. Anthropic dürfte insbesondere am Oberflächenerkennungsmodell "VyUI" interessiert sein, das angeblich in Vergleichstests besser abschnitt als vergleichbare OpenAI-Technologie.

Benchmark (UI element identification / grounding) VyUI accuracy OpenAI model
ScreenSpot v1 92% 18.3%
ScreenSpot v2 94.7% 87.9%
GroundUI Web 84.8% 82.3%

Claude kann bereits mehrstufige Aufgaben in laufenden Anwendungen erledigen: Mit dem kürzlich veröffentlichten Modell Sonnet 4.6 erreicht Claude auf dem OSWorld-Vergleichstest 72,5 Prozent, der genau diese Fähigkeit misst, gegenüber weniger als 15 Prozent Ende 2024. Das Vercept-Team soll diese Fähigkeit weiter steigern.

Suno-Investorin räumt ein: KI-Musik steht in direkter Konkurrenz zu menschlichen Künstlern

Suno-Investorin C.C. Gong erzählt bei X, dass sie kaum noch Spotify nutzt – und liefert damit ungewollt ein Argument für die Musikindustrie im Rechtsstreit gegen das KI-Musik-Startup.

Anzeige

Anthropic schickt erstmals ein KI-Modell in Rente: Claude Opus 3 darf aber noch weiter bloggen

Anthropic schickt sein KI-Modell Claude Opus 3 in den „Ruhestand“ – und lässt es jetzt wöchentlich Essays auf Substack veröffentlichen. Man habe das Modell vorher in „Retirement Interviews“ nach seinen Wünschen gefragt, es habe „enthusiastisch“ zugestimmt. Die Aktion zeigt exemplarisch, wie KI-Unternehmen die Vermenschlichung ihrer Produkte auf die Spitze treiben und dabei die Grenze zwischen philosophischer Vorsicht und PR-Inszenierung gezielt verwischen.

Read full article about: KI-Entwickler Andrej Karpathy: "Coding hat sich seit Dezember 2025 grundlegend verändert"

Andrej Karpathy, ehemaliger KI-Entwickler von Tesla und OpenAI, bestätigt seine Aussage, dass sich Programmieren durch KI-Agenten in den vergangenen zwei Monaten grundlegend verändert hat. Laut Karpathy funktionierten KI-Agenten vor Dezember 2026 kaum, seitdem aber schon – dank höherer Modellqualität und Ausdauer bei langen Aufgaben.

Als Beispiel beschreibt er, wie ein KI-Agent an einem Wochenende selbstständig ein Video-Analyse-Dashboard einrichtete: Er gab die Aufgabe in Englisch ein, der Agent arbeitete 30 Minuten, löste Probleme eigenständig und lieferte ein fertiges Ergebnis. Vor drei Monaten wäre das noch ein ganzes Wochenendprojekt gewesen.

Programmieren wird dadurch unkenntlich. Man tippt keinen Computercode mehr in einen Editor, so wie es seit der Erfindung des Computers war – diese Ära ist vorbei. Man startet KI-Agenten, gibt ihnen Aufgaben auf Englisch und verwaltet und überprüft ihre Arbeit parallel.

Karpathy via X

Karpathy betont aber: Die Systeme seien nicht perfekt und benötigten weiterhin menschliche Richtungsvorgaben, Urteilsvermögen und Kontrolle.

Karpathys Einordnung ist interessant, denn noch im Oktober 2025 bezeichnete er den Hype um KI-Agenten als übertrieben: Die Produkte seien lange nicht marktreif. Diese Meinung änderte er grundlegend nach den Veröffentlichungen von Opus 4.5 und Codex 5.2 im Winter.

Anzeige
Read full article about: Alibabas offene Qwen-3.5-Modellreihe liefert mehr Leistung bei weniger Rechenaufwand

Alibaba hat die neue Qwen-3.5-Modellreihe erweitert. Sie umfasst jetzt vier Modelle: Qwen3.5-Flash, Qwen3.5-35B-A3B, Qwen3.5-122B-A10B und Qwen3.5-27B. Laut Alibaba liefern die Modelle mehr Leistung bei weniger Rechenaufwand. Sie verarbeiten Text, Bilder und Video als Eingabe und geben Text aus. Zuerst wurde Mitte Februar Qwen3.5-397B-A17B vorgestellt.

Das kleinere Modell Qwen3.5-35B-A3B übertrifft demnach das deutlich größere Vorgängermodell Qwen3-235B-A22B – ein Hinweis darauf, dass bessere Architektur, Datenqualität und Reinforcement Learning wichtiger sind als reine Modellgröße. Die größeren Varianten 122B und 27B sollen den Abstand zu Spitzenmodellen weiter verringern, besonders bei komplexen Agentenszenarien.

Die Benchmarks zeigen, dass Alibabas Qwen-3.5-Modelle können in Benchmarks mit westlichen Spitzenmodellen wie OpenAIs GPT-5 mini, gpt-oss-120b und Anthropics Claude Sonnet 4.5 mithalten oder diese teils übertreffen. Das größte Modell Qwen3.5-122B-A10B führt in mehreren Tests: Bei agentenbasierter Werkzeugnutzung (BFCL V4, 72,2) und agentenbasierter Websuche (BrowseComp, 63,8) liegt es vor allen Konkurrenten. Im Mathe-Benchmark HMMT erreicht es 91,4 – knapp hinter GPT-5 mini (92,0). Bei visuellem Schlussfolgern (MMMU-Pro, 76,9) und Dokumentenerkennung (OmniDocBench, 89,8) setzt es sich ebenfalls an die Spitze. Claude Sonnet 4.5 punktet dagegen beim agentenbasierten Terminal-Coding (49,4) und beim Embodied Reasoning (64,7) klar vor allen Qwen-Modellen. GPT-5 mini liegt beim multilingualen Wissen (MMMLU, 90,0) und bei der Mathematik vorn. Auffällig: Das kleine Qwen3.5-35B-A3B mit nur 3 Milliarden aktiven Parametern hält in vielen Tests mit den wesentlich größeren Modellen mit.
Alibabas Qwen-3.5-Modelle können in Benchmarks mit westlichen Spitzenmodellen wie OpenAIs GPT-5 mini, gpt-oss-120b und Anthropics Claude Sonnet 4.5 mithalten oder diese teils übertreffen. | Bild: Alibaba

Alle Modelle sind auf Hugging Face, ModelScope und über Qwen Chat verfügbar. Sie stehen unter der Apache License 2.0, einer freizügigen Open-Source-Lizenz, die kommerzielle Nutzung, Veränderung und Weiterverbreitung erlaubt. Qwen3.5-Flash ist die gehostete Produktionsversion mit einer Kontextlänge von einer Million Token und eingebauten Tools. Der API-Preis liegt bei 0,10 Dollar pro Million Input-Token und 0,40 Dollar pro Million Output-Token.

Read full article about: Perplexity "Computer" bündelt verschiedene agentische KI-Modelle für komplexe Arbeitsabläufe

Perplexity hat eine neue Chat-Oberfläche gelauncht, die die agentischen Fähigkeiten aktueller KI-Modelle besser zum Einsatz bringen soll. Das neue Produkt "Perplexity Computer" bündelt die Fähigkeiten verschiedener KI-Modelle in einem System. Ähnlich wie Claude Cowork, aber im Browser und mit Zugriff auf Modelle verschiedener Hersteller, soll es ganze Arbeitsabläufe eigenständig ausführen.

Nutzer beschreiben ein gewünschtes Ergebnis, das System zerlegt es in Aufgaben und erstellt Unter-Agenten für Webrecherche, Dokumentenerstellung, Datenverarbeitung oder API-Aufrufe. Perplexity begründet den Ansatz damit, dass sich KI-Modelle entgegen der gängigen Meinung nicht angleichen, sondern zunehmend spezialisieren. Jedes Spitzenmodell sei bei anderen Aufgaben am besten, weshalb ein vollständiger Arbeitsablauf Zugriff auf alle Modelle benötige.

Als Kern-Modell nutzt Perplexity Computer Opus 4.6, ergänzt durch Gemini, Grok, ChatGPT 5.2, Nano Banana für Bilder und Veo 3.1 für Video. Jede Aufgabe läuft laut Perplexity in einer eigenen, abgesicherten Umgebung mit Browser, Dateisystem und Tool-Anbindungen. Perplexity Computer ist im Max-Plan für 200 US-Dollar monatlich verfügbar.

Anzeige
Read full article about: Google relaunched sein KI-Kreativstudio Flow mit neuen Funktionen und Integrationen

Google hat sein KI-Kreativstudio Flow gerelauncht und ausgebaut. Nun werden die bisherigen Bildgeneratoren Whisk und ImageFX direkt in Flow integriert; ab März können Nutzer ihre bestehenden Projekte und Dateien übertragen. Herzstück ist Googles Bildmodell Nano Banana, mit dem sich Bilder erzeugen und direkt als Grundlage für Videos mit Veo nutzen lassen.

Neu sind außerdem ein Lasso-Werkzeug zum gezielten Bearbeiten von Bildbereichen per Texteingabe, eine flexible Medienverwaltung mit Sammlungen sowie Funktionen zum Verlängern von Clips und Steuern von Kamerabewegungen. Google will damit Text-, Bild- und Videoerstellung in einem Arbeitsablauf bündeln.

Flow ist unter flow.google verfügbar und kann nach Anmeldung kostenlos genutzt werden; zahlende Nutzer erhalten höhere Nutzungslimits und Zugriff auf alle Werkzeuge. Seit dem Start im vergangenen Jahr haben Nutzer laut Google über 1,5 Milliarden Bilder und Videos erstellt.