Anzeige
Skip to content
Read full article about: Alibabas offene Qwen-3.5-Modellreihe liefert mehr Leistung bei weniger Rechenaufwand

Alibaba hat die neue Qwen-3.5-Modellreihe erweitert. Sie umfasst jetzt vier Modelle: Qwen3.5-Flash, Qwen3.5-35B-A3B, Qwen3.5-122B-A10B und Qwen3.5-27B. Laut Alibaba liefern die Modelle mehr Leistung bei weniger Rechenaufwand. Sie verarbeiten Text, Bilder und Video als Eingabe und geben Text aus. Zuerst wurde Mitte Februar Qwen3.5-397B-A17B vorgestellt.

Das kleinere Modell Qwen3.5-35B-A3B übertrifft demnach das deutlich größere Vorgängermodell Qwen3-235B-A22B – ein Hinweis darauf, dass bessere Architektur, Datenqualität und Reinforcement Learning wichtiger sind als reine Modellgröße. Die größeren Varianten 122B und 27B sollen den Abstand zu Spitzenmodellen weiter verringern, besonders bei komplexen Agentenszenarien.

Die Benchmarks zeigen, dass Alibabas Qwen-3.5-Modelle können in Benchmarks mit westlichen Spitzenmodellen wie OpenAIs GPT-5 mini, gpt-oss-120b und Anthropics Claude Sonnet 4.5 mithalten oder diese teils übertreffen. Das größte Modell Qwen3.5-122B-A10B führt in mehreren Tests: Bei agentenbasierter Werkzeugnutzung (BFCL V4, 72,2) und agentenbasierter Websuche (BrowseComp, 63,8) liegt es vor allen Konkurrenten. Im Mathe-Benchmark HMMT erreicht es 91,4 – knapp hinter GPT-5 mini (92,0). Bei visuellem Schlussfolgern (MMMU-Pro, 76,9) und Dokumentenerkennung (OmniDocBench, 89,8) setzt es sich ebenfalls an die Spitze. Claude Sonnet 4.5 punktet dagegen beim agentenbasierten Terminal-Coding (49,4) und beim Embodied Reasoning (64,7) klar vor allen Qwen-Modellen. GPT-5 mini liegt beim multilingualen Wissen (MMMLU, 90,0) und bei der Mathematik vorn. Auffällig: Das kleine Qwen3.5-35B-A3B mit nur 3 Milliarden aktiven Parametern hält in vielen Tests mit den wesentlich größeren Modellen mit.
Alibabas Qwen-3.5-Modelle können in Benchmarks mit westlichen Spitzenmodellen wie OpenAIs GPT-5 mini, gpt-oss-120b und Anthropics Claude Sonnet 4.5 mithalten oder diese teils übertreffen. | Bild: Alibaba

Alle Modelle sind auf Hugging Face, ModelScope und über Qwen Chat verfügbar. Sie stehen unter der Apache License 2.0, einer freizügigen Open-Source-Lizenz, die kommerzielle Nutzung, Veränderung und Weiterverbreitung erlaubt. Qwen3.5-Flash ist die gehostete Produktionsversion mit einer Kontextlänge von einer Million Token und eingebauten Tools. Der API-Preis liegt bei 0,10 Dollar pro Million Input-Token und 0,40 Dollar pro Million Output-Token.

Read full article about: Perplexity "Computer" bündelt verschiedene agentische KI-Modelle für komplexe Arbeitsabläufe

Perplexity hat eine neue Chat-Oberfläche gelauncht, die die agentischen Fähigkeiten aktueller KI-Modelle besser zum Einsatz bringen soll. Das neue Produkt "Perplexity Computer" bündelt die Fähigkeiten verschiedener KI-Modelle in einem System. Ähnlich wie Claude Cowork, aber im Browser und mit Zugriff auf Modelle verschiedener Hersteller, soll es ganze Arbeitsabläufe eigenständig ausführen.

Nutzer beschreiben ein gewünschtes Ergebnis, das System zerlegt es in Aufgaben und erstellt Unter-Agenten für Webrecherche, Dokumentenerstellung, Datenverarbeitung oder API-Aufrufe. Perplexity begründet den Ansatz damit, dass sich KI-Modelle entgegen der gängigen Meinung nicht angleichen, sondern zunehmend spezialisieren. Jedes Spitzenmodell sei bei anderen Aufgaben am besten, weshalb ein vollständiger Arbeitsablauf Zugriff auf alle Modelle benötige.

Als Kern-Modell nutzt Perplexity Computer Opus 4.6, ergänzt durch Gemini, Grok, ChatGPT 5.2, Nano Banana für Bilder und Veo 3.1 für Video. Jede Aufgabe läuft laut Perplexity in einer eigenen, abgesicherten Umgebung mit Browser, Dateisystem und Tool-Anbindungen. Perplexity Computer ist im Max-Plan für 200 US-Dollar monatlich verfügbar.

Read full article about: Google relaunched sein KI-Kreativstudio Flow mit neuen Funktionen und Integrationen

Google hat sein KI-Kreativstudio Flow gerelauncht und ausgebaut. Nun werden die bisherigen Bildgeneratoren Whisk und ImageFX direkt in Flow integriert; ab März können Nutzer ihre bestehenden Projekte und Dateien übertragen. Herzstück ist Googles Bildmodell Nano Banana, mit dem sich Bilder erzeugen und direkt als Grundlage für Videos mit Veo nutzen lassen.

Neu sind außerdem ein Lasso-Werkzeug zum gezielten Bearbeiten von Bildbereichen per Texteingabe, eine flexible Medienverwaltung mit Sammlungen sowie Funktionen zum Verlängern von Clips und Steuern von Kamerabewegungen. Google will damit Text-, Bild- und Videoerstellung in einem Arbeitsablauf bündeln.

Flow ist unter flow.google verfügbar und kann nach Anmeldung kostenlos genutzt werden; zahlende Nutzer erhalten höhere Nutzungslimits und Zugriff auf alle Werkzeuge. Seit dem Start im vergangenen Jahr haben Nutzer laut Google über 1,5 Milliarden Bilder und Videos erstellt.

Read full article about: Adobe Firefly: Neue KI-Funktion "Quick Cut" übernimmt den ersten Videoschnitt

Adobe hat für seine KI-Kreativplattform Firefly eine neue Funktion namens "Quick Cut" vorgestellt. Das Tool ermöglicht es Videoerstellern, eigenes Rohmaterial hochzuladen oder neues Material per KI zu generieren und daraus automatisch einen ersten Rohschnitt zu erstellen. Nutzer beschreiben in eigenen Worten, worum es im Video gehen soll, etwa ein Interview, eine Produktdemo oder ein Reise-Vlog. Firefly erstellt daraus einen strukturierten Erstedit. Optional lassen sich Drehbücher oder Shot-Listen eingeben.

Quick Cut richtet sich an Produkttester, Reporter, Podcaster und Marketer. Firefly bündelt KI-Modelle von Adobe, Google, OpenAI und Runway in einer App. Bis zum 16. März bietet Adobe unbegrenzte Bild- und Videogenerierungen in bis zu 2K-Auflösung für bestimmte Abo-Pläne an.

Read full article about: Claude Code folgt Entwicklern jetzt aufs Handy

Nutzer von Claude Code können jetzt eine lokal laufende Programmier-Sitzung von unterwegs über Smartphone, Tablet oder Browser weiterführen. Die Sitzung läuft weiterhin auf dem eigenen Rechner, keine Daten werden in die Cloud verschoben. Lokale Dateien, Server und Projektkonfigurationen bleiben nutzbar. Der Zugriff erfolgt über claude.ai/code oder die Claude-App für iOS und Android, Nutzer können nahtlos zwischen Terminal, Browser und Handy wechseln. Bei Netzwerkunterbrechungen verbindet sich die Sitzung automatisch neu, nach etwa zehn Minuten Offline-Zeit endet sie allerdings.

Die Funktion ist als Research Preview zunächst für Max-Abonnenten verfügbar, Pro-Nutzer sollen folgen. Im Unterschied zu Claude Code im Web, das seit letztem Jahr Aufgaben in Anthropics Cloud-Umgebungen ausführt, läuft eine Remote-Control-Sitzung vollständig auf dem eigenen Rechner.

Anthropic baut Claude Code derzeit massiv aus, unter anderem mit automatisierten Code-Reviews und GitHub-Funktionen. Parallel sammelt das Unternehmen 10 Milliarden Dollar bei einer Bewertung von 350 Milliarden Dollar ein. Das neue Tool Claude Cowork wurde laut Erfinder Boris Cherny fast vollständig mit Claude Code selbst programmiert.

Read full article about: Claude arbeitet jetzt eigenständig über Excel und PowerPoint hinweg

Anthropic lässt Claude nun eigenständig zwischen Excel und PowerPoint wechseln, etwa um Analysen direkt in Präsentationen zu überführen. Zugleich erhalten Enterprise-Kunden private Plugin-Marktplätze in Cowork, über die Admins eigene Plugin-Sammlungen an Teams verteilen können. Neue Vorlagen decken unter anderem HR, Design, Engineering, Finanzen und Vermögensverwaltung ab.

Besonders stark wächst der Finanzbereich: MCP-Schnittstellen für FactSet und MSCI liefern Echtzeit-Marktdaten und Index-Analysen; S&P Global (Capital IQ Pro) und LSEG steuern eigene Plugins bei.

Neue Drittanbieter-Verbindungen umfassen Google Workspace, Docusign, Salesforce, Slack und weitere. Admins bekommen erweiterte Zugriffskontrollen sowie OpenTelemetry-Support für Kosten- und Nutzungsüberwachung. Die Excel-PowerPoint-Funktion ist als Forschungsvorschau für alle Bezahlpläne verfügbar.

Cowork ist Anthropics Desktop-Tool für agentenbasierte Büroarbeit. Plugins machen Claude zum Spezialisten für einzelne Abteilungen – das Tool hat allerdings bekannte Sicherheitslücken.

Read full article about: OpenAI veröffentlicht Updates für Audio-API und beschleunigt komplexe KI-Agenten

OpenAI hat zwei API-Updates für Entwickler angekündigt: Das neue Modell gpt-realtime-1.5 für die Realtime-API soll Sprachbefehle zuverlässiger umsetzen. Laut OpenAI zeigen interne Tests eine um gut zehn Prozent verbesserte Transkription von Zahlen und Buchstaben. Zudem stieg die Leistung bei logischen Audioaufgaben um fünf Prozent und bei der Befolgung von Anweisungen um sieben Prozent. Auch das Audiomodell wurde auf Version 1.5 aktualisiert.

Zudem unterstützt die Responses-API nun WebSockets. Das ermöglicht laut OpenAI eine dauerhafte Datenverbindung, bei der nur neue Informationen gesendet werden, statt bei jeder Anfrage den gesamten Kontext neu zu übertragen. Laut OpenAI beschleunigt das komplexe KI-Agenten mit vielen Werkzeug-Nutzungen um 20 bis 40 Prozent.