Anzeige
Skip to content

Alibaba veröffentlicht leistungsfähiges Open Source Sprach-Vision-Modell Qwen3-VL

Alibaba hat mit Qwen3-VL ein neues Open-Source-Modell veröffentlicht, das Sprache und Bild kombiniert. Die stärkste Version, Qwen3-VL-235B-A22B, kommt in zwei Varianten: "Instruct" schlägt laut Alibaba Googles Gemini 2.5 Pro bei wichtigen Vision-Tests, "Thinking" erzielt laut eigenen Angaben Bestwerte bei multimodalen Denkaufgaben. Das Modell kann grafische Oberflächen verstehen und bedienen, Code aus Screenshots generieren, bis zu zweistündige Videos analysieren und Texte in 32 Sprachen erkennen – auch bei schlechter Bildqualität. Es unterstützt räumliches Verständnis in 2D und 3D und bietet laut Hersteller starke Leistungen in Mathematik und Naturwissenschaften.

Video: Demo für agentische Bildverarbeitung durch Qwen3_VL

Qwen3-VL ist über Hugging Face, ModelScope und die Alibaba Cloud verfügbar. Ein öffentlicher Chat-Zugang besteht unter chat.qwen.ai.

Anzeige
DEC_D_Incontent-1

KI-News ohne Hype – von Menschen kuratiert

Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar“‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.

Quelle: Qwen