Matthias Bastian
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Read full article about: Microsofts Bing-Team veröffentlicht Embedding-Modell Harrier als Open Source
Microsofts Bing-Team (ja, genau!) stellt das Embedding-Modell "Harrier" als Open Source bereit. Harrier unterstützt mehr als 100 Sprachen, bietet ein Kontextfenster von 32.000 Tokens und wurde mit mehr als zwei Milliarden Trainingsbeispielen sowie synthetischen Daten von GPT-5 trainiert. Laut des Teams belegt Harrier Platz 1 auf dem mehrsprachigen MTEB-v2-Benchmark und übertrifft laut Microsoft auch proprietäre Modelle von OpenAI und Amazon.
| Rank (Borda) | Model | Zero-shot | Active Params (B) | Total Params (B) | Embedding Dim | Max Tokens |
|---|---|---|---|---|---|---|
| 1 | harrier-oss-v1-27b | 78% | 25.6 | 27.0 | 5376 | 131072 |
| 2 | KaLM-Embedding-Gemma3-12B-2511 | 73% | 10.8 | 11.8 | 3840 | 32768 |
| 3 | llama-embed-nemotron-8b | 99% | 7.0 | 7.5 | 4096 | 32768 |
| 4 | Qwen3-Embedding-8B | 99% | 6.9 | 7.6 | 4096 | 32768 |
| 5 | gemini-embedding-001 | 99% | 3072 | 2048 | ||
| 6 | Qwen3-Embedding-4B | 99% | 3.6 | 4.0 | 2560 | 32768 |
| 7 | Octen-Embedding-8B | 99% | 6.9 | 7.6 | 4096 | 32768 |
| 8 | F2LLM-v2-14B | 88% | 13.2 | 14.0 | 5120 | 40960 |
| 9 | F2LLM-v2-8B | 88% | 6.9 | 7.6 | 4096 | 40960 |
| 10 | harrier-oss-v1-0.6b | 78% | 0.440 | 0.596 | 1024 | 32768 |
Neben dem großen 27-Milliarden-Parameter-Modell gibt es zwei kleinere Varianten (0,6B und 270M) für schwächere Hardware. Alle Modelle sind bei Hugging Face unter der MIT-Lizenz verfügbar. Das Team will die Technik künftig in Bing und neue Grounding-Dienste für KI-Agenten integrieren.
Embedding-Modelle sind dafür zuständig, Informationen zu suchen, abzurufen und zu ordnen, damit KI-Systeme korrekte Antworten liefern können. Laut Microsoft gewinnen sie im Zeitalter von KI-Agenten stark an Bedeutung, da diese eigenständig Informationen suchen, Kontext über mehrere Schritte aktualisieren und sich Dinge merken müssen.
Kommentieren
Quelle: Microsoft Bing Blog
Read full article about: Tokenmaxxing im Silicon Valley: Meta-Mitarbeiter jagen Highscore beim KI-Verbrauch
Meta hat ein internes Rangsystem, bei dem Mitarbeiter um den höchsten KI-Token-Verbrauch wetteifern. Tokens sind Dateneinheiten, die KI-Modelle im Betrieb verarbeiten. Ein Mitarbeiter erstellte im Intranet eine Rangliste namens "Claudeonomics", die den Verbrauch von mehr als 85.000 Beschäftigten misst, berichtet The Information. In 30 Tagen wurden 60 Billionen Tokens verbraucht. Der Spitzenreiter nutzte durchschnittlich 281 Milliarden Tokens.
Die Gamifizierung mit Ranglisten und Titeln wie "Token Legend", "Model Connoisseur" und "Cache Wizard" soll Mitarbeiter motivieren, KI-Tools in ihren Arbeitsalltag einzubauen. Allerdings zeigt die Praxis auch Schwächen: Einige Mitarbeiter lassen KI-Agenten stundenlang laufen, nur um ihren Verbrauch zu steigern.
"Tokenmaxxing" gilt im Silicon Valley derzeit als Produktivitätsmaß: Nvidia-Chef Jensen Huang sagte, er wäre "zutiefst beunruhigt", wenn ein Ingenieur mit 500.000 Dollar Gehalt nicht mindestens 250.000 Dollar an Tokens jährlich verbrauche. Meta-CTO Andrew Bosworth berichtete laut Forbes, ein Top-Ingenieur gebe sein Gehaltsäquivalent für Tokens aus und steigere seine Produktivität angeblich um das Zehnfache.
Konkrete Zahlen, die solche Thesen stützen, hat bislang allerdings kein Unternehmen vorgelegt. Das dürfte auch daran liegen, dass die Messung von gesteigerter Einzelproduktivität und deren Auswirkung auf den Unternehmenserfolg schwierig ist.
Kommentieren
Quelle: The Information | Forbes
Read full article about: Vom GPT-2-Warnruf zur Gratis-KI: Sam Altmans "Vibes" passen nicht zu "traditionellem KI-Safety-Kram"
Warum so viele Safety-Forscher OpenAI verlassen haben, erklärt Sam Altman in einem neuen Porträt des New Yorker selbst: "Meine Vibes passen nicht wirklich zu vielem von diesem traditionellen KI-Safety-Kram."
Der Satz ist wohl die direkteste Erklärung für den seit Langem schwelenden Bruch zwischen OpenAIs kommerziellem Kurs und seinem Safety-Lager; OpenAI hatte zuletzt sicherheitsorientierte Teams aufgelöst und angeblich Sicherheitsmaßnahmen reduziert. Als Mitarbeitende nach OpenAIs Einstieg ins Pentagon-Geschäft Bedenken äußerten, reagierte Altman knapp. "Vielleicht findet ihr den Iran-Angriff gut und die Invasion Venezuelas schlecht. Da habt ihr kein Mitspracherecht."
Das Porträt zeichnet Altman insgesamt als stark polarisierende Figur, die gefallen will und zugleich gleichgültig gegenüber den Folgen möglicher Täuschungen ist, so ein Ex-Board-Member. Altmans Version davon:
Ich glaube, manche Leute wollen eine Führungsperson, die sich ihrer Sache absolut sicher ist, daran festhält und ihre Position nicht mehr ändert. Aber wir arbeiten in einem Bereich, in dem sich die Dinge extrem schnell verändern.
Sam Altman über wechselnde Versprechen
Bestes Beispiel: 2019 warnte Altman öffentlichkeitswirksam davor, GPT-2 vollständig zu veröffentlichen, weil das Modell angeblich zu gefährlich sei. Wenige Jahre später stellte er um ein Vielfaches leistungsfähigere Modelle kostenlos für alle zur Verfügung.
Kommentieren
Quelle: The New Yorker
Weniger Arbeit, gleicher Lohn: OpenAI macht Vorschläge für eine Welt mit Superintelligenz
In einem umfangreichen Grundsatzpapier schlägt OpenAI politische Maßnahmen für den Übergang zur Superintelligenz vor. Darunter: ein staatlicher Vermögensfonds, die Vier-Tage-Woche und höhere Kapitalertragsteuern für Spitzenverdiener.
Ja-Sager-Chatbots und KI-Schleimerei: Selbst rationale Nutzer können in Wahnspiralen geraten
KI-Chatbots neigen dazu, ihren Nutzern nach dem Mund zu reden. Eine Studie des MIT und der University of Washington zeigt, dass diese Schmeichelei selbst unter simulierten optimalen Bedingungen zu gefährlichen falschen Überzeugungen führen kann. Auch faktentreue Bots und aufgeklärte Nutzer lösen das Problem nicht vollständig.
Read full article about: Telehealth-Startup Medvi generiert Milliardenumsatz mit Hilfe von KI-gefälschter Werbung
Das Telehealth-Startup Medvi, das GLP-1-Abnehmmittel verkauft, wurde von der New York Times als Beispiel für KI-gestützte Effizienz vorgestellt. Das Unternehmen soll mit nur zwei Angestellten einen Umsatz von 1,8 Milliarden Dollar erzielt haben, indem es KI vor allem im Marketing einsetzte.
Was die NYT jedoch nicht erwähnte: Medvi nutzte KI offenbar auch, um ethisch fragwürdige Werbung zu erstellen, darunter gefälschte Arztprofile in sozialen Medien, Fake-Videos und generierte Vorher-Nachher-Vergleiche. Also all die negativen Dinge, die man KI gerne unterstellt. Das folgende Video fasst das zusammen, ebenso wie ein ausführlicher Bericht bei Futurism.
In sozialen Medien wurde Medvi zunächst für seine KI-Effizienz gefeiert, wird jetzt aber als Negativbeispiel genannt. Dennoch zeigt der Fall, dass KI-Tools die Skalierung eines Unternehmens mit minimalem Personal ermöglichen können - hier allerdings ethisch fragwürdig und mindestens an der Grenze zum Betrug. Die Frage bleibt, ob ähnliche Effizienzgewinne auch bei seriösen Produkten mit transparentem Marketing möglich sind.
Kommentieren
Quelle: NYT
Read full article about: OpenAI-Manager teilt neue Zahlen zur Nutzung von ChatGPT für Gesundheitsfragen
OpenAIs Head of Business Finance Chengpeng Mou teilt ein paar Fakten zur ChatGPT-Health-Nutzung. Demnach stellen Nutzer in den USA rund zwei Millionen Nachrichten pro Woche zu Krankenversicherungsthemen an ChatGPT. Etwa 600.000 wöchentliche Nachrichten stammen von Menschen in sogenannten "hospital deserts", also Gebieten, in denen das nächste Krankenhaus mindestens 30 Minuten Fahrt entfernt ist. Sieben von zehn Gesundheitsanfragen werden außerhalb der regulären Sprechzeiten gestellt. Die Zahlen basieren auf anonymisierten US-Nutzungsdaten.
Anlass für Mous Angaben war ein Beitrag von Simon Smith, der beschrieb, wie seine Familie ChatGPT nutzte, um eine Erkrankung seines Vaters zu bewältigen. Die Familie habe Informationen von verschiedenen Ärzten und Pflegekräften in einem gemeinsamen ChatGPT-Projekt gesammelt, sortiert und ausgewertet, um bessere Entscheidungen zu treffen. Laut Mou ist das kein Einzelfall.
OpenAI baut sein Gesundheitsangebot gezielt aus: Das Unternehmen hat kürzlich eine eigene Gesundheitsrubrik in ChatGPT eingeführt und will mit seinem Chatbot stärker in den US-Krankenhausmarkt vordringen.
Kommentieren
Quelle: Chengpeng via X
Read full article about: KI-Tool kopiert Guardian-Artikel: New York Times feuert Autor
Die New York Times arbeitet nicht mehr mit einem Freelance-Journalisten zusammen, der offenbar versehentlich mit KI Inhalte einer Buchbesprechung kopiert hat. Autor Alex Preston nutzte ein KI-Tool bei einer Rezension des Romans "Watching Over Her" von Jean-Baptiste Andrea. Die KI übernahm dabei Passagen aus einer älteren Rezension desselben Buchs von Christobel Kent im Guardian, die Preston vor Abgabe nicht erkannte. Ein Leser bemerkte die Übereinstimmungen und die New York Times beendete die Zusammenarbeit.
Preston sagte dem Guardian, er sei "zutiefst beschämt" und habe "einen schweren Fehler gemacht". Da er die Guardian-Besprechung teils fast wörtlich zitierte, ist davon auszugehen, dass sein KI-Tool direkt aus dem Artikel kopierte, ohne dass Preston dies bewusst war – letztlich also inkompetente Nutzung.
Ein ähnlicher KI-Fail, der auf ungelernten Umgang und mangelnde Sorgfalt zurückzuführen ist, ereignete sich kürzlich bei Ars Technica: Ein Redakteur veröffentlichte einen Artikel mit komplett erfundenen Zitaten, die aus einem Entwicklerblog hätten stammen sollen. Der betreffende Entwickler hatte allerdings unwillentlich ChatGPT ausgesperrt. Der Redakteur hätte die Quelle prüfen müssen. Stattdessen vertraute er auf das Internet-Crawling von ChatGPT, das die Zitate anhand der Prompts und der URL frei erfand.
Kommentieren
Quelle: The Guardian