Skip to content
Read full article about: Analyse zeigt KI-Preissteigerung durch Reasoning-Prozesse

Eine Analyse von Artificial Analysis zeigt die KI-Preissteigerung durch Reasoning-Prozesse am Beispiel von Googles Gemini Flash 2.5. Die Betriebskosten des Modells sind 150-mal höher als bei Gemini Flash 2.0. Grund dafür sind deutlich teurere Ausgabetoken – 3,5 US-Dollar pro Million Token mit Reasoning, im Vergleich zu 0,4 Dollar bei 2.0 – sowie eine 17-fach höhere Token-Nutzung bei den Tests. Gemini 2.5 Flash verbraucht damit so viele Token für logische Schlussfolgerungen wie kein anderes Modell. OpenAIs o4-mini ist pro Token zwar teurer, verbrauchte im Benchmark aber weniger Token, was zu geringeren Gesamtkosten führte.

Balkendiagramm mit dem Titel „Cost to Run Artificial Analysis Intelligence Index“. Es zeigt die Gesamtkosten in US-Dollar, um alle Tests im Artificial Analysis Intelligence Index mit verschiedenen KI-Modellen durchzuführen. Die Balken sind in drei Farben unterteilt: Input (blau), Reasoning (lila), Output (grün).Links stehen die teuersten Modelle:  

GPT-3 ($1951),  

Claude 3 Opus ($1485),  

Gemini 2.5 Pro ($844).

In der Mitte:  

Gemini 2.5 Flash mit Reasoning ($445),  

o4-mini (high) ($323).

Rechts die günstigsten Modelle:  

Gemini 2.0 Flash ($3),  

Llama 3 8B ($2).

Ein lila Pfeil darüber zeigt den Kostenunterschied zwischen Gemini 2.0 Flash und Gemini 2.5 Flash mit Reasoning und hebt „150x“ hervor. Quelle ist „Artificial Analysis“.
Die Betriebskosten für Googles Gemini 2.5 Flash mit aktiviertem Reasoning sind 150-mal höher als bei Gemini 2.0 Flash. | Bild: Artificial Analysis
Read full article about: Googles neue Caching-Funktion für Gemini 2.5 soll Kosten um bis zu 75 Prozent senken

Google führt beim Sprachmodell Gemini 2.5 "implizites Caching" ein. Damit werden wiederkehrende Inhalte automatisch erkannt und nur einmal berechnet, was die Kosten für Entwickler laut Google um bis zu 75 Prozent senken kann. Im Gegensatz zum bisherigen expliziten Caching müssen Nutzer dafür keinen eigenen Cache mehr erstellen. Um die Chance auf Kosteneinsparungen zu erhöhen, empfiehlt Google, den stabilen Teil eines Prompts – also z. B. die Systemanweisung – am Anfang zu platzieren und erst danach nutzerspezifische Eingaben wie Fragen einzufügen. Die Funktion gilt für Gemini 2.5 Flash ab 1024 Tokens und für Pro-Versionen ab 2048 Tokens. Weitere Details und Empfehlungen zur Nutzung stehen in der Gemini-API-Dokumentation.

Read full article about: OpenAI bringt Deep Research für Github

OpenAI bietet ab sofort einen GitHub-Connector für den Deep-Research-Agenten in ChatGPT an. Nutzer mit Plus-, Pro- oder Team-Abo können damit eigene GitHub-Repositories verbinden und Fragen stellen. ChatGPT durchsucht daraufhin Quellcode und Dokumentation im Repo und liefert einen ausführlichen Bericht mit Quellenangaben. Dabei gelten die bestehenden Zugriffsrechte: Nur freigegebene Inhalte sind für ChatGPT sichtbar. Der Rollout erfolgt in den nächsten Tagen, Versionen für Enterprise-Kunden sollen bald folgen. Ziel ist es laut OpenAI-Produktchef Nate Gonzalez, ChatGPT besser in interne Arbeitsabläufe zu integrieren. Weitere Deep-Research-Konnektoren sind geplant.

Read full article about: Google verstärkt Schutz vor Online-Betrug mit lokalen KI-Modellen

Google setzt ab sofort KI-Modelle ein, um Nutzer des Chrome-Browsers besser vor Online-Betrug zu schützen. Auf Desktop-Rechnern kommt dafür das lokale Sprachmodell Gemini Nano zum Einsatz, das betrügerische Websites schnell erkennen soll – auch solche, die bislang unbekannt sind. Auf Android warnt Chrome künftig vor betrügerischen Benachrichtigungen, die von Webseiten ausgehen. Google erklärt, dass diese Maßnahmen Teil eines umfassenderen Schutzes sind, der auch in der Safe-Browsing-Funktion "Erweiterter Schutz" zum Tragen kommt. Zusätzlich meldet das Unternehmen, dass KI-gestützte Systeme in der Google-Suche täglich hunderte Millionen betrügerischer Inhalte blockieren. Damit habe man etwa die Zahl gefälschter Supportseiten von Fluggesellschaften um über 80 Prozent reduziert.

Read full article about: Trump will Bidens KI-Chip-Exportregeln kippen und vereinfachen

Die Trump-Regierung plant, die KI-Chip-Exportbeschränkungen der Biden-Ära aufzuheben und zu ersetzen. Das teilte eine Sprecherin des US-Handelsministeriums mit. Die Biden-Regel sollte am 15. Mai in Kraft treten und teilte die Welt in drei KI-Chip-Zonen ein, wobei die meisten Länder Obergrenzen unterlagen. Die Trump-Beamten halten das System für "zu komplex" und "nicht durchsetzbar". Sie wollen es durch eine "viel einfachere Regel" ersetzen, die "amerikanische Innovationen entfesselt". Diskutiert wird ein globales Lizenzsystem mit zwischenstaatlichen Vereinbarungen. Ein genauer Zeitplan für die neue Regelung steht bisher nicht fest. Schon zum Start seiner Amtszeit machte Trump eine Reihe KI-Regeln der Biden-Regierung rückgängig.

Read full article about: Netflix führt ChatGPT-gestützte Suche ein - erst mal nur für iOS-Nutzer

Netflix startet eine neue Suchfunktion mit ChatGPT-Technologie von OpenAI. Nutzer können künftig mit natürlicher Sprache nach Inhalten suchen, etwa mit Sätzen wie „Ich will etwas Lustiges, aber nicht albern“. Die Funktion wird zunächst als Beta-Version auf iOS-Geräten eingeführt. Laut Bloomberg fanden bereits erste Tests in Australien und Neuseeland statt. Zusätzlich plant Netflix, Titelbilder automatisch in bevorzugte Sprachen der Nutzer zu übersetzen und stellte eine neue Video-Startseite sowie einen vertikalen Kurzvideo-Feed für Mobilgeräte vor.