Google baut mit Gemini ein plattformweites KI-System mit klarer Architektur und Geschäftsmodell. Apple kämpft derweil mit Siri gegen technischen Wildwuchs, interne Umbrüche – und die eigene Vergangenheit.
Auf der I/O-Konferenz 2025 dominierte ein Begriff sämtliche Ankündigungen: Gemini. Googles KI-Marke tauchte in fast jeder Demo, auf jedem Gerät und in jedem Satz von Sundar Pichai und anderen Google-Mitarbeitern auf. Laut Google arbeiten inzwischen sieben Millionen Entwickler mit Gemini-Modellen, der monatliche Token-Durchsatz stieg binnen eines Jahres von 9,7 auf 480 Billionen Tokens – ein Wachstum um den Faktor 50. Gemini ist nicht mehr nur Produktname, sondern Betriebsschicht für Android, Chrome, Workspace, XR-Headsets, Cloud-APIs und selbst die Suche.
Die Modellfamilie reicht von Gemini Nano über Flash bis zum aktuellen Gemini 2.5 Pro. Letzteres führt Benchmarks wie US-Math-Olympiaden und LiveCodeBench an, kann Kamera-Streams in Echtzeit analysieren, Coden, Webseiten steuern oder Podcasts generieren.
Siri: Zwei Gehirne, kein Fortschritt
Bei Apple steht dem ein System gegenüber, das sinnbildlich im Maschinenraum feststeckt. Siri basiert 2025 noch immer auf einer Hybridarchitektur, die intern als „two brains“ bekannt ist: ein altes regelbasiertes System, über das ein kleines generatives Sprachmodell gestülpt wurde. Genau dieses Zusammenspiel aus Altlast und Anbau erzeugt laut Insidern einen permanenten Bug-Reigen, den Entwickler als „Whack-a-Mole“-Spiel beschreiben: Wird ein Fehler behoben, entstehen an anderer Stelle drei neue.
Doch nicht nur die Fehleranfälligkeit ist problematisch – die Architektur selbst blockiert jede grundlegende Weiterentwicklung. Deshalb baut Apple parallel in Zürich eine vollständig neue LLM-Architektur, die das Siri-Altsystem mittelfristig ersetzen soll. Bis dahin bleibt Siri in einem Zustand technischer Stagnation.
Die Folge: Die lange angekündigte Siri 2.0-Version, geplant für iOS 18.5, wurde auf frühestens iOS 19 im Frühjahr 2026 verschoben. Interne Tests zeigen Erfolgsraten zentraler Funktionen von nur 66 bis 80 Prozent. Laut Reuters hat Apple-CEO Tim Cook deshalb den bisherigen AI-Chef John Giannandrea durch Mike Rockwell ersetzt – einen Hardware-Manager, der zuletzt für Vision Pro zuständig war. Der Mythos Siri überlebte seine Fähigkeiten – und beschädigte langfristig das Vertrauen.
Gemini ist Plattform, Siri bleibt Add-on
Der grundlegende Unterschied liegt in der Systemausrichtung. Siri war 2011 ein Feature, das iPhones verkaufen sollte. Gemini ist 2025 ein Cloud-Produkt, das eigenständig Umsatz generieren soll. Google bietet zwei kostenpflichtige Stufen an: Gemini AI Pro für 19,99 USD und AI Ultra für 249 USD pro Monat. Beide sind direkt mit der Modellfamilie gekoppelt. Dazu kommen Millionen Entwickler, die Gemini via API nutzen.
Google hat den Weg zu Gemini über mehrere Jahre vorbereitet: 2021 mit dem Chatbot LaMDA und dem multimodalen MuM, 2023 folgte das experimentelle KI-Produkt Bard und Ende desselben Jahres Gemini 1.0. Mit Gemini 1.5 Pro holte das Unternehmen erstmals zur Konkurrenz von OpenAI auf. Mit 2.0 Pro und jetzt 2.5 Pro inklusive „Deep Think“-Modus spielt Google endgültig ganz oben mit.
Zudem integriert Google neue Dienste wie Flow (für KI-basierte Videoproduktion) und Jules (ein asynchroner Coding-Agent), die auf Gemini-, Veo- und Imagen-Modellen basieren. Entwickler erhalten sofortigen Zugriff auf diese Tools – mit vollständigem SDK und Cloud-Zugang über Vertex AI. Siri hingegen bleibt ein geschlossenes System mit begrenzter Intents-API und eingeschränkter Drittanbieterintegration.
Gemini ist kein zweites Siri, sondern das Gegenmodell: plattformweit, verhältnismäßig offen, aggressiv iterativ. Während Apple noch an der Ablösung eines 14 Jahre alten Sprachgerüsts arbeitet, liefert Google bereits multimodale Agenten, eingebettet in Kamera-Apps, Chat-Interfaces, Coding-Umgebungen und XR-Brillen. KI ist kein Feature mehr, sondern der Unterbau.