Read full article about: Microsofts Bing-Team veröffentlicht Embedding-Modell Harrier als Open Source
Microsofts Bing-Team (ja, genau!) stellt das Embedding-Modell "Harrier" als Open Source bereit. Harrier unterstützt mehr als 100 Sprachen, bietet ein Kontextfenster von 32.000 Tokens und wurde mit mehr als zwei Milliarden Trainingsbeispielen sowie synthetischen Daten von GPT-5 trainiert. Laut des Teams belegt Harrier Platz 1 auf dem mehrsprachigen MTEB-v2-Benchmark und übertrifft laut Microsoft auch proprietäre Modelle von OpenAI und Amazon.
| Rank (Borda) | Model | Zero-shot | Active Params (B) | Total Params (B) | Embedding Dim | Max Tokens |
|---|---|---|---|---|---|---|
| 1 | harrier-oss-v1-27b | 78% | 25.6 | 27.0 | 5376 | 131072 |
| 2 | KaLM-Embedding-Gemma3-12B-2511 | 73% | 10.8 | 11.8 | 3840 | 32768 |
| 3 | llama-embed-nemotron-8b | 99% | 7.0 | 7.5 | 4096 | 32768 |
| 4 | Qwen3-Embedding-8B | 99% | 6.9 | 7.6 | 4096 | 32768 |
| 5 | gemini-embedding-001 | 99% | 3072 | 2048 | ||
| 6 | Qwen3-Embedding-4B | 99% | 3.6 | 4.0 | 2560 | 32768 |
| 7 | Octen-Embedding-8B | 99% | 6.9 | 7.6 | 4096 | 32768 |
| 8 | F2LLM-v2-14B | 88% | 13.2 | 14.0 | 5120 | 40960 |
| 9 | F2LLM-v2-8B | 88% | 6.9 | 7.6 | 4096 | 40960 |
| 10 | harrier-oss-v1-0.6b | 78% | 0.440 | 0.596 | 1024 | 32768 |
Neben dem großen 27-Milliarden-Parameter-Modell gibt es zwei kleinere Varianten (0,6B und 270M) für schwächere Hardware. Alle Modelle sind bei Hugging Face unter der MIT-Lizenz verfügbar. Das Team will die Technik künftig in Bing und neue Grounding-Dienste für KI-Agenten integrieren.
Embedding-Modelle sind dafür zuständig, Informationen zu suchen, abzurufen und zu ordnen, damit KI-Systeme korrekte Antworten liefern können. Laut Microsoft gewinnen sie im Zeitalter von KI-Agenten stark an Bedeutung, da diese eigenständig Informationen suchen, Kontext über mehrere Schritte aktualisieren und sich Dinge merken müssen.
Kommentieren
Quelle: Microsoft Bing Blog
Read full article about: China versucht laut Taiwan gezielt an dessen Chip-Technologie zu gelangen
China versucht aktiv, Taiwans Halbleiter-Knowhow und Fachkräfte abzuwerben, um die internationale technologische Eindämmung zu umgehen. Das geht laut Reuters aus einem Bericht von Taiwans Nationaler Sicherheitsbehörde hervor.
China nutze demnach indirekte Kanäle, um Talente abzuwerben, Technologie zu stehlen und kontrollierte Güter zu beschaffen. Taiwan ist Heimat von TSMC, dem weltgrößten Auftragschiphersteller und Zulieferer für Nvidia und Apple.
Im ersten Quartal 2026 wurden laut dem Bericht zudem über 170 Millionen Angriffsversuche auf Taiwans Regierungsnetzwerk registriert. Die Behörde warnt zudem vor möglicher chinesischer Wahlbeeinflussung durch Deepfakes und gefälschte Umfragen bei den Kommunalwahlen Ende des Jahres.
Kommentieren
Quelle: Reuters
Anzeige
Read full article about: Jeff Bezos KI-Labor Prometheus wirbt xAI-Mitgründer von OpenAI ab
Jeff Bezos Start-up Project Prometheus hat Kyle Kosic eingestellt, einen Mitgründer von Elon Musks xAI, der zuletzt bei OpenAI arbeitete. Das berichtet die Financial Times. Kosic leitete bei xAI die Infrastruktur hinter dem Colossus-Supercomputer und soll bei Prometheus weiter an KI-Infrastruktur arbeiten.
Das von Bezos und dem ehemaligen Google-Manager Vikram Bajaj geführte Start-up entwickelt KI-Systeme, die die physische Welt verstehen sollen, etwa für Triebwerksdesign oder Ingenieurwesen. Prometheus hat bereits Hunderte Mitarbeiter in San Francisco, London und Zürich eingestellt. Bezos und Bajaj wollen laut FT zweistellige Milliardensummen für ein dauerhaftes Beteiligungsvehikel einsammeln, das Beteiligungen von Firmen in Branchen wie Luftfahrt und Architektur aufkaufen soll.
Kommentieren
Quelle: FT
Read full article about: OpenAI, Anthropic und Google arbeiten gemeinsam gegen chinesisches Modell-Kopieren
OpenAI, Anthropic und Google haben laut Bloomberg begonnen, gemeinsam gegen das unautorisierte Kopieren ihrer KI-Modelle durch chinesische Wettbewerber vorzugehen. Die drei Unternehmen tauschen über das 2023 gegründete "Frontier Model Forum" Informationen aus, um sogenannte feindliche Destillation zu erkennen. Bei der Destillation werden die Outputs eines bestehenden KI-Modells genutzt, um ein günstigeres Nachahmungsmodell zu trainieren. Eines der ersten Beispiele war Stanfords Alpaca-Modell, das die Machbarkeit demonstrierte, doch mittlerweile ist die Praxis zu einem echten Problem für die US-Unternehmen geworden.
US-Behörden schätzen laut Bloomberg, dass diese Praxis den amerikanischen Labs jährlich Milliarden Dollar an Gewinn kostet. OpenAI hatte bereits im Februar den US-Kongress gewarnt, dass Deepseek zunehmend ausgefeilte Methoden nutze, um Daten aus US-Modellen abzuziehen. Anthropic identifizierte Deepseek, Moonshot und Minimax als Akteure. Die Zusammenarbeit ähnelt dem Vorgehen in der Cybersicherheitsbranche, wo Firmen routinemäßig Angriffsdaten austauschen.
Kommentieren
Quelle: Bloomberg
Read full article about: Meta will neue KI-Modelle doch teilweise als Open Source veröffentlichen
Meta plant, Versionen seiner neuen KI-Modelle als Open Source zu veröffentlichen. Das berichtet Axios. Die Modelle sind die ersten, die unter der Leitung von Alexandr Wang entwickelt wurden, der 2025 im Rahmen eines knapp 15-Milliarden-Dollar-Deals mit Scale AI zu Meta kam.
Allerdings will das Unternehmen anders als bei den Llama-Modellen einige Teile proprietär halten und vor der Freigabe Sicherheitsrisiken prüfen. Die größten Modelle sollen ebenfalls nicht offen verfügbar sein.
Wang sieht Meta laut dem Bericht als Gegenpol zu Anthropic und OpenAI, die sich stärker auf Regierungen und Unternehmen konzentrieren. Meta setzt auf Verbreitung im B2C-Bereich über WhatsApp, Facebook und Instagram. Laut den Quellen von Axios weiß Meta bereits, dass die neuen Modelle nicht in allen Bereichen mit der Konkurrenz mithalten werden.
Kommentieren
Quelle: Axios
Anzeige
Read full article about: Tokenmaxxing im Silicon Valley: Meta-Mitarbeiter jagen Highscore beim KI-Verbrauch
Meta hat ein internes Rangsystem, bei dem Mitarbeiter um den höchsten KI-Token-Verbrauch wetteifern. Tokens sind Dateneinheiten, die KI-Modelle im Betrieb verarbeiten. Ein Mitarbeiter erstellte im Intranet eine Rangliste namens "Claudeonomics", die den Verbrauch von mehr als 85.000 Beschäftigten misst, berichtet The Information. In 30 Tagen wurden 60 Billionen Tokens verbraucht. Der Spitzenreiter nutzte durchschnittlich 281 Milliarden Tokens.
Die Gamifizierung mit Ranglisten und Titeln wie "Token Legend", "Model Connoisseur" und "Cache Wizard" soll Mitarbeiter motivieren, KI-Tools in ihren Arbeitsalltag einzubauen. Allerdings zeigt die Praxis auch Schwächen: Einige Mitarbeiter lassen KI-Agenten stundenlang laufen, nur um ihren Verbrauch zu steigern.
"Tokenmaxxing" gilt im Silicon Valley derzeit als Produktivitätsmaß: Nvidia-Chef Jensen Huang sagte, er wäre "zutiefst beunruhigt", wenn ein Ingenieur mit 500.000 Dollar Gehalt nicht mindestens 250.000 Dollar an Tokens jährlich verbrauche. Meta-CTO Andrew Bosworth berichtete laut Forbes, ein Top-Ingenieur gebe sein Gehaltsäquivalent für Tokens aus und steigere seine Produktivität angeblich um das Zehnfache.
Konkrete Zahlen, die solche Thesen stützen, hat bislang allerdings kein Unternehmen vorgelegt. Das dürfte auch daran liegen, dass die Messung von gesteigerter Einzelproduktivität und deren Auswirkung auf den Unternehmenserfolg schwierig ist.
Kommentieren
Quelle: The Information | Forbes
Read full article about: Anthropic sichert sich Milliarden-Rechenkapazität bei Google und Broadcom
Anthropic hat eine Vereinbarung mit Google und Broadcom über mehrere Gigawatt an TPU-Rechenkapazität geschlossen, die ab 2027 verfügbar sein soll. Der Großteil der Infrastruktur wird in den USA aufgebaut. Das Unternehmen begründet den Ausbau mit stark wachsender Nachfrage: Die annualisierte Umsatzrate liege inzwischen bei über 30 Milliarden Dollar, nach rund 9 Milliarden Ende 2025. Die Zahl der Geschäftskunden mit über einer Million Dollar Jahresumsatz habe sich seit Februar auf über 1.000 verdoppelt.
Anthropic trainiert Claude auf verschiedener Hardware: Amazons AWS Trainium, Googles TPUs und Nvidias GPUs. Claude ist so auch als einziges der drei großen KI-Modelle auf allen drei großen Cloud-Plattformen verfügbar: AWS, Google Cloud und Microsoft Azure. Amazon bleibe aber weiter der wichtigste Cloud-Partner, so Anthropic.
Kommentieren
Quelle: Anthropic
Read full article about: Vom GPT-2-Warnruf zur Gratis-KI: Sam Altmans "Vibes" passen nicht zu "traditionellem KI-Safety-Kram"
Warum so viele Safety-Forscher OpenAI verlassen haben, erklärt Sam Altman in einem neuen Porträt des New Yorker selbst: "Meine Vibes passen nicht wirklich zu vielem von diesem traditionellen KI-Safety-Kram."
Der Satz ist wohl die direkteste Erklärung für den seit Langem schwelenden Bruch zwischen OpenAIs kommerziellem Kurs und seinem Safety-Lager; OpenAI hatte zuletzt sicherheitsorientierte Teams aufgelöst und angeblich Sicherheitsmaßnahmen reduziert. Als Mitarbeitende nach OpenAIs Einstieg ins Pentagon-Geschäft Bedenken äußerten, reagierte Altman knapp. "Vielleicht findet ihr den Iran-Angriff gut und die Invasion Venezuelas schlecht. Da habt ihr kein Mitspracherecht."
Das Porträt zeichnet Altman insgesamt als stark polarisierende Figur, die gefallen will und zugleich gleichgültig gegenüber den Folgen möglicher Täuschungen ist, so ein Ex-Board-Member. Altmans Version davon:
Ich glaube, manche Leute wollen eine Führungsperson, die sich ihrer Sache absolut sicher ist, daran festhält und ihre Position nicht mehr ändert. Aber wir arbeiten in einem Bereich, in dem sich die Dinge extrem schnell verändern.
Sam Altman über wechselnde Versprechen
Bestes Beispiel: 2019 warnte Altman öffentlichkeitswirksam davor, GPT-2 vollständig zu veröffentlichen, weil das Modell angeblich zu gefährlich sei. Wenige Jahre später stellte er um ein Vielfaches leistungsfähigere Modelle kostenlos für alle zur Verfügung.
Kommentieren
Quelle: The New Yorker
Anzeige
Weniger Arbeit, gleicher Lohn: OpenAI macht Vorschläge für eine Welt mit Superintelligenz
In einem umfangreichen Grundsatzpapier schlägt OpenAI politische Maßnahmen für den Übergang zur Superintelligenz vor. Darunter: ein staatlicher Vermögensfonds, die Vier-Tage-Woche und höhere Kapitalertragsteuern für Spitzenverdiener.