Microsofts Bing-Team (ja, genau!) stellt das Embedding-Modell "Harrier" als Open Source bereit. Harrier unterstützt mehr als 100 Sprachen, bietet ein Kontextfenster von 32.000 Tokens und wurde mit mehr als zwei Milliarden Trainingsbeispielen sowie synthetischen Daten von GPT-5 trainiert. Laut des Teams belegt Harrier Platz 1 auf dem mehrsprachigen MTEB-v2-Benchmark und übertrifft laut Microsoft auch proprietäre Modelle von OpenAI und Amazon.
| Rank (Borda) | Model | Zero-shot | Active Params (B) | Total Params (B) | Embedding Dim | Max Tokens |
|---|---|---|---|---|---|---|
| 1 | harrier-oss-v1-27b | 78% | 25.6 | 27.0 | 5376 | 131072 |
| 2 | KaLM-Embedding-Gemma3-12B-2511 | 73% | 10.8 | 11.8 | 3840 | 32768 |
| 3 | llama-embed-nemotron-8b | 99% | 7.0 | 7.5 | 4096 | 32768 |
| 4 | Qwen3-Embedding-8B | 99% | 6.9 | 7.6 | 4096 | 32768 |
| 5 | gemini-embedding-001 | 99% | 3072 | 2048 | ||
| 6 | Qwen3-Embedding-4B | 99% | 3.6 | 4.0 | 2560 | 32768 |
| 7 | Octen-Embedding-8B | 99% | 6.9 | 7.6 | 4096 | 32768 |
| 8 | F2LLM-v2-14B | 88% | 13.2 | 14.0 | 5120 | 40960 |
| 9 | F2LLM-v2-8B | 88% | 6.9 | 7.6 | 4096 | 40960 |
| 10 | harrier-oss-v1-0.6b | 78% | 0.440 | 0.596 | 1024 | 32768 |
Neben dem großen 27-Milliarden-Parameter-Modell gibt es zwei kleinere Varianten (0,6B und 270M) für schwächere Hardware. Alle Modelle sind bei Hugging Face unter der MIT-Lizenz verfügbar. Das Team will die Technik künftig in Bing und neue Grounding-Dienste für KI-Agenten integrieren.
Embedding-Modelle sind dafür zuständig, Informationen zu suchen, abzurufen und zu ordnen, damit KI-Systeme korrekte Antworten liefern können. Laut Microsoft gewinnen sie im Zeitalter von KI-Agenten stark an Bedeutung, da diese eigenständig Informationen suchen, Kontext über mehrere Schritte aktualisieren und sich Dinge merken müssen.