Anzeige
Skip to content
Read full article about: Höherer Token-Verbrauch kann die Effizienz offener Sprachmodelle reduzieren

Sogenannte "Reasoning-Modelle" generieren deutlich mehr Wörter (Token), bevor sie antworten. Offene KI-Modelle benötigen dabei mitunter drei- bis viermal mehr Token als geschlossene Modelle wie Grok-4 oder OpenAI, zeigt eine Analyse von Nous Research. Besonders bei einfachen Wissensfragen produzieren offene Modelle unnötige Gedankenschritte, was trotz niedrigerer Tokenpreise zu höheren Gesamtkosten führen kann.

Anzahl der durchschnittlich verbrauchten Token zur Lösung einer Aufgabe. | Bild: Nous Research

OpenAIs gpt-oss-120b zeige jedoch, dass auch Open-Source-Modelle mit sehr kurzen Denkpfaden effizient arbeiten können, insbesondere bei Mathematikaufgaben. Mistrals Magistral-Modelle hingegen fallen durch hohen Tokenverbrauch auf. Die Token-Effizienz hängt stark vom Aufgabentyp ab.

Obwohl die Basispreise geringer sind, können Open-Source-Reasoning-Modelle teurer sein, wenn sie mehr Token verbrauchen. | Bild: Nous Research
Read full article about: KI-Engine Mirage 2 startet mit Demo, verwandelt eure Bilder in interaktive Spielwelten

Das KI-Start-up Dynamics Lab hat mit Mirage 2 eine neue Version seiner generativen Spielwelt-Engine veröffentlicht. Damit können Nutzer eigene Bilder – etwa Skizzen oder Fotos – hochladen und daraus interaktive Spielwelten erzeugen. Die Engine erlaubt zudem, das Spielgeschehen in Echtzeit per Texteingabe zu verändern. Spieler können ihre Welten speichern und teilen. Trotz technischer Fortschritte gegenüber dem Vorgänger bestehen jedoch deutliche Einschränkungen bei der Steuerungsgenauigkeit und der visuellen Stabilität. Google Deepminds Genie 3 ist in diesen Bereichen meilenweit voraus, ist jedoch bisher nicht verfügbar und benötigt wohl deutlich mehr Rechenleistung. Für Mirage 2 ist eine Demo online verfügbar.

Read full article about: Meta stellt KI-Modell DINOv3 für universelle Bildverarbeitung vor

Meta stellt mit DINOv3 ein neues KI-Modell für Bildverarbeitung vor, das ohne gelabelte Daten trainiert wurde. Laut Meta ist DINOv3 ohne Anpassungen über verschiedene Bildaufgaben und Domänen einsetzbar, insbesondere für Bereiche mit wenig annotierten Daten, etwa Satellitenbilder. Es erreicht in mehreren anspruchsvollen Bildaufgaben Ergebnisse, die bisher spezialisierten Systemen vorbehalten waren.

Video: Meta

DINOv3 nutzt wie die beiden Vorgängermodelle selbstüberwachtes Lernen (SSL) auf Basis von 1,7 Milliarden Bildern und 7 Milliarden Parametern. In Benchmarks schneidet v3 besser ab als v2, der Sprung ist laut Metas Benchmarks allerdings lange nicht so groß wie von v1 auf v2.

Meta stellt die vortrainierten Modelle in verschiedenen Varianten, Adapter sowie den Trainings- und Evaluierungscode unter der auch kommerziell nutzbaren Dinov3 Lizenz bei Github zur Verfügung.