Anzeige
Skip to content

Matthias Bastian

Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Read full article about: Microsofts Bing-Team veröffentlicht Embedding-Modell Harrier als Open Source

Microsofts Bing-Team (ja, genau!) stellt das Embedding-Modell "Harrier" als Open Source bereit. Harrier unterstützt mehr als 100 Sprachen, bietet ein Kontextfenster von 32.000 Tokens und wurde mit mehr als zwei Milliarden Trainingsbeispielen sowie synthetischen Daten von GPT-5 trainiert. Laut des Teams belegt Harrier Platz 1 auf dem mehrsprachigen MTEB-v2-Benchmark und übertrifft laut Microsoft auch proprietäre Modelle von OpenAI und Amazon.

Rank (Borda) Model Zero-shot Active Params (B) Total Params (B) Embedding Dim Max Tokens
1 harrier-oss-v1-27b 78% 25.6 27.0 5376 131072
2 KaLM-Embedding-Gemma3-12B-2511 73% 10.8 11.8 3840 32768
3 llama-embed-nemotron-8b 99% 7.0 7.5 4096 32768
4 Qwen3-Embedding-8B 99% 6.9 7.6 4096 32768
5 gemini-embedding-001 99% 3072 2048
6 Qwen3-Embedding-4B 99% 3.6 4.0 2560 32768
7 Octen-Embedding-8B 99% 6.9 7.6 4096 32768
8 F2LLM-v2-14B 88% 13.2 14.0 5120 40960
9 F2LLM-v2-8B 88% 6.9 7.6 4096 40960
10 harrier-oss-v1-0.6b 78% 0.440 0.596 1024 32768

Neben dem großen 27-Milliarden-Parameter-Modell gibt es zwei kleinere Varianten (0,6B und 270M) für schwächere Hardware. Alle Modelle sind bei Hugging Face unter der MIT-Lizenz verfügbar. Das Team will die Technik künftig in Bing und neue Grounding-Dienste für KI-Agenten integrieren.

Embedding-Modelle sind dafür zuständig, Informationen zu suchen, abzurufen und zu ordnen, damit KI-Systeme korrekte Antworten liefern können. Laut Microsoft gewinnen sie im Zeitalter von KI-Agenten stark an Bedeutung, da diese eigenständig Informationen suchen, Kontext über mehrere Schritte aktualisieren und sich Dinge merken müssen.

Read full article about: Tokenmaxxing im Silicon Valley: Meta-Mitarbeiter jagen Highscore beim KI-Verbrauch

Meta hat ein internes Rangsystem, bei dem Mitarbeiter um den höchsten KI-Token-Verbrauch wetteifern. Tokens sind Dateneinheiten, die KI-Modelle im Betrieb verarbeiten. Ein Mitarbeiter erstellte im Intranet eine Rangliste namens "Claudeonomics", die den Verbrauch von mehr als 85.000 Beschäftigten misst, berichtet The Information. In 30 Tagen wurden 60 Billionen Tokens verbraucht. Der Spitzenreiter nutzte durchschnittlich 281 Milliarden Tokens.

Die Gamifizierung mit Ranglisten und Titeln wie "Token Legend", "Model Connoisseur" und "Cache Wizard" soll Mitarbeiter motivieren, KI-Tools in ihren Arbeitsalltag einzubauen. Allerdings zeigt die Praxis auch Schwächen: Einige Mitarbeiter lassen KI-Agenten stundenlang laufen, nur um ihren Verbrauch zu steigern.

"Tokenmaxxing" gilt im Silicon Valley derzeit als Produktivitätsmaß: Nvidia-Chef Jensen Huang sagte, er wäre "zutiefst beunruhigt", wenn ein Ingenieur mit 500.000 Dollar Gehalt nicht mindestens 250.000 Dollar an Tokens jährlich verbrauche. Meta-CTO Andrew Bosworth berichtete laut Forbes, ein Top-Ingenieur gebe sein Gehaltsäquivalent für Tokens aus und steigere seine Produktivität angeblich um das Zehnfache.

Konkrete Zahlen, die solche Thesen stützen, hat bislang allerdings kein Unternehmen vorgelegt. Das dürfte auch daran liegen, dass die Messung von gesteigerter Einzelproduktivität und deren Auswirkung auf den Unternehmenserfolg schwierig ist.

Read full article about: Vom GPT-2-Warnruf zur Gratis-KI: Sam Altmans "Vibes" passen nicht zu "traditionellem KI-Safety-Kram"

Warum so viele Safety-Forscher OpenAI verlassen haben, erklärt Sam Altman in einem neuen Porträt des New Yorker selbst: "Meine Vibes passen nicht wirklich zu vielem von diesem traditionellen KI-Safety-Kram."

Der Satz ist wohl die direkteste Erklärung für den seit Langem schwelenden Bruch zwischen OpenAIs kommerziellem Kurs und seinem Safety-Lager; OpenAI hatte zuletzt sicherheitsorientierte Teams aufgelöst und angeblich Sicherheitsmaßnahmen reduziert. Als Mitarbeitende nach OpenAIs Einstieg ins Pentagon-Geschäft Bedenken äußerten, reagierte Altman knapp. "Vielleicht findet ihr den Iran-Angriff gut und die Invasion Venezuelas schlecht. Da habt ihr kein Mitspracherecht."

Das Porträt zeichnet Altman insgesamt als stark polarisierende Figur, die gefallen will und zugleich gleichgültig gegenüber den Folgen möglicher Täuschungen ist, so ein Ex-Board-Member. Altmans Version davon:

Ich glaube, manche Leute wollen eine Führungsperson, die sich ihrer Sache absolut sicher ist, daran festhält und ihre Position nicht mehr ändert. Aber wir arbeiten in einem Bereich, in dem sich die Dinge extrem schnell verändern.

Sam Altman über wechselnde Versprechen

Bestes Beispiel: 2019 warnte Altman öffentlichkeitswirksam davor, GPT-2 vollständig zu veröffentlichen, weil das Modell angeblich zu gefährlich sei. Wenige Jahre später stellte er um ein Vielfaches leistungsfähigere Modelle kostenlos für alle zur Verfügung.

Weniger Arbeit, gleicher Lohn: OpenAI macht Vorschläge für eine Welt mit Superintelligenz

In einem umfangreichen Grundsatzpapier schlägt OpenAI politische Maßnahmen für den Übergang zur Superintelligenz vor. Darunter: ein staatlicher Vermögensfonds, die Vier-Tage-Woche und höhere Kapitalertragsteuern für Spitzenverdiener.

Ja-Sager-Chatbots und KI-Schleimerei: Selbst rationale Nutzer können in Wahnspiralen geraten

KI-Chatbots neigen dazu, ihren Nutzern nach dem Mund zu reden. Eine Studie des MIT und der University of Washington zeigt, dass diese Schmeichelei selbst unter simulierten optimalen Bedingungen zu gefährlichen falschen Überzeugungen führen kann. Auch faktentreue Bots und aufgeklärte Nutzer lösen das Problem nicht vollständig.

Read full article about: Telehealth-Startup Medvi generiert Milliardenumsatz mit Hilfe von KI-gefälschter Werbung

Das Telehealth-Startup Medvi, das GLP-1-Abnehmmittel verkauft, wurde von der New York Times als Beispiel für KI-gestützte Effizienz vorgestellt. Das Unternehmen soll mit nur zwei Angestellten einen Umsatz von 1,8 Milliarden Dollar erzielt haben, indem es KI vor allem im Marketing einsetzte.

Was die NYT jedoch nicht erwähnte: Medvi nutzte KI offenbar auch, um ethisch fragwürdige Werbung zu erstellen, darunter gefälschte Arztprofile in sozialen Medien, Fake-Videos und generierte Vorher-Nachher-Vergleiche. Also all die negativen Dinge, die man KI gerne unterstellt. Das folgende Video fasst das zusammen, ebenso wie ein ausführlicher Bericht bei Futurism.

In sozialen Medien wurde Medvi zunächst für seine KI-Effizienz gefeiert, wird jetzt aber als Negativbeispiel genannt. Dennoch zeigt der Fall, dass KI-Tools die Skalierung eines Unternehmens mit minimalem Personal ermöglichen können - hier allerdings ethisch fragwürdig und mindestens an der Grenze zum Betrug. Die Frage bleibt, ob ähnliche Effizienzgewinne auch bei seriösen Produkten mit transparentem Marketing möglich sind.

Read full article about: OpenAI-Manager teilt neue Zahlen zur Nutzung von ChatGPT für Gesundheitsfragen

OpenAIs Head of Business Finance Chengpeng Mou teilt ein paar Fakten zur ChatGPT-Health-Nutzung. Demnach stellen Nutzer in den USA rund zwei Millionen Nachrichten pro Woche zu Krankenversicherungsthemen an ChatGPT. Etwa 600.000 wöchentliche Nachrichten stammen von Menschen in sogenannten "hospital deserts", also Gebieten, in denen das nächste Krankenhaus mindestens 30 Minuten Fahrt entfernt ist. Sieben von zehn Gesundheitsanfragen werden außerhalb der regulären Sprechzeiten gestellt. Die Zahlen basieren auf anonymisierten US-Nutzungsdaten.

Anlass für Mous Angaben war ein Beitrag von Simon Smith, der beschrieb, wie seine Familie ChatGPT nutzte, um eine Erkrankung seines Vaters zu bewältigen. Die Familie habe Informationen von verschiedenen Ärzten und Pflegekräften in einem gemeinsamen ChatGPT-Projekt gesammelt, sortiert und ausgewertet, um bessere Entscheidungen zu treffen. Laut Mou ist das kein Einzelfall.

OpenAI baut sein Gesundheitsangebot gezielt aus: Das Unternehmen hat kürzlich eine eigene Gesundheitsrubrik in ChatGPT eingeführt und will mit seinem Chatbot stärker in den US-Krankenhausmarkt vordringen.

Read full article about: KI-Tool kopiert Guardian-Artikel: New York Times feuert Autor

Die New York Times arbeitet nicht mehr mit einem Freelance-Journalisten zusammen, der offenbar versehentlich mit KI Inhalte einer Buchbesprechung kopiert hat. Autor Alex Preston nutzte ein KI-Tool bei einer Rezension des Romans "Watching Over Her" von Jean-Baptiste Andrea. Die KI übernahm dabei Passagen aus einer älteren Rezension desselben Buchs von Christobel Kent im Guardian, die Preston vor Abgabe nicht erkannte. Ein Leser bemerkte die Übereinstimmungen und die New York Times beendete die Zusammenarbeit.

Preston sagte dem Guardian, er sei "zutiefst beschämt" und habe "einen schweren Fehler gemacht". Da er die Guardian-Besprechung teils fast wörtlich zitierte, ist davon auszugehen, dass sein KI-Tool direkt aus dem Artikel kopierte, ohne dass Preston dies bewusst war – letztlich also inkompetente Nutzung.

Ein ähnlicher KI-Fail, der auf ungelernten Umgang und mangelnde Sorgfalt zurückzuführen ist, ereignete sich kürzlich bei Ars Technica: Ein Redakteur veröffentlichte einen Artikel mit komplett erfundenen Zitaten, die aus einem Entwicklerblog hätten stammen sollen. Der betreffende Entwickler hatte allerdings unwillentlich ChatGPT ausgesperrt. Der Redakteur hätte die Quelle prüfen müssen. Stattdessen vertraute er auf das Internet-Crawling von ChatGPT, das die Zitate anhand der Prompts und der URL frei erfand.