Versicherer am Lloyd’s-Markt in London bieten erstmals spezielle Policen an, die Schäden durch Fehler von KI-Chatbots abdecken. Entwickelt wurde das Produkt vom Start-up Armilla, das von Y Combinator unterstützt wird. Die Versicherung greift, wenn ein Unternehmen wegen fehlerhafter KI-Leistung verklagt wird – etwa durch Kunden, die durch falsche Auskünfte oder sogenannte „Halluzinationen“ der KI geschädigt wurden. Abgedeckt sind unter anderem Anwaltskosten und Schadenersatz. Ein Beispiel ist Air Canada: Ein Chatbot hatte einen nicht existierenden Rabatt versprochen, den die Airline später einlösen musste. Laut Armilla hätte die neue Police in einem solchen Fall gegriffen, wenn die Leistung des Bots deutlich unter den Erwartungen lag. Laut Karthik Ramakrishnan, CEO von Armilla, soll das Produkt Unternehmen den Einstieg in KI erleichtern. Bestehende Technologieversicherungen decken KI-Risiken oft nur zu geringen Teilen. Armilla versichert gezielt den Leistungsabfall von KI-Modellen.
Eine Analyse von Artificial Analysis zeigt die KI-Preissteigerung durch Reasoning-Prozesse am Beispiel von Googles Gemini Flash 2.5. Die Betriebskosten des Modells sind 150-mal höher als bei Gemini Flash 2.0. Grund dafür sind deutlich teurere Ausgabetoken – 3,5 US-Dollar pro Million Token mit Reasoning, im Vergleich zu 0,4 Dollar bei 2.0 – sowie eine 17-fach höhere Token-Nutzung bei den Tests. Gemini 2.5 Flash verbraucht damit so viele Token für logische Schlussfolgerungen wie kein anderes Modell. OpenAIs o4-mini ist pro Token zwar teurer, verbrauchte im Benchmark aber weniger Token, was zu geringeren Gesamtkosten führte.
Die Betriebskosten für Googles Gemini 2.5 Flash mit aktiviertem Reasoning sind 150-mal höher als bei Gemini 2.0 Flash. | Bild: Artificial Analysis
Google führt beim Sprachmodell Gemini 2.5 "implizites Caching" ein. Damit werden wiederkehrende Inhalte automatisch erkannt und nur einmal berechnet, was die Kosten für Entwickler laut Google um bis zu 75 Prozent senken kann. Im Gegensatz zum bisherigen expliziten Caching müssen Nutzer dafür keinen eigenen Cache mehr erstellen. Um die Chance auf Kosteneinsparungen zu erhöhen, empfiehlt Google, den stabilen Teil eines Prompts – also z. B. die Systemanweisung – am Anfang zu platzieren und erst danach nutzerspezifische Eingaben wie Fragen einzufügen. Die Funktion gilt für Gemini 2.5 Flash ab 1024 Tokens und für Pro-Versionen ab 2048 Tokens. Weitere Details und Empfehlungen zur Nutzung stehen in der Gemini-API-Dokumentation.