Mit dem neuen multimodalen KI-Modell Gemini will Google mindestens zu OpenAIs GPT-4 aufschließen. Erste Tests laufen bereits.
Laut drei anonymen Quellen von The Information hat Google einer kleinen Gruppe ausgewählter Unternehmen Zugang zu einer abgespeckten Chat-Version von Gemini gewährt. Die drei Quellen sollen direkt mit der Angelegenheit vertraut sein. Die größte Version von Gemini wird noch intern entwickelt.
Der erste Test mit externen Kunden dürfte ein Indiz dafür sein, dass der Start von Gemini näher rückt. Google hatte ihn bisher für dieses Jahr angekündigt. In früheren Berichten war von einem Start im Herbst die Rede.
Gemini soll Unternehmen über einen Cloud-Zugang angeboten und in Googles Produkte für Endnutzer integriert werden. Google plant, Gemini für alle KI-Anwendungen einzusetzen, vom Chatbot Bard bis zu den neuen KI-Funktionen in Workspace.
Über den Vertex AI Service möchte Google verschiedene Modellgrößen anbieten. Kleinere Modelle könnten einfachere Aufgaben zu geringeren Kosten ausführen.
Gemini soll akkurater und nutzerfreundlicher sein als GPT-4
Ein großer Vorteil soll laut einer Testperson darin liegen, dass Google neben öffentlichen Informationen aus dem Web auch Daten aus eigenen Produkten, z.B. aus der Google-Suche, verarbeiten kann. Dies könnte dazu führen, dass das Modell die Intentionen der Nutzerinnen und Nutzer noch besser versteht als GPT-4. Außerdem soll es weniger fehlerhafte Antworten geben.
Zusätzlich soll die Codegenerierung von Gemini so gut sein, dass Google hofft, mit Microsofts GitHub Copilot konkurrieren zu können. Auch Funktionen wie die Analyse von Diagrammen und die Interpretation von Daten sowie das Ausführen von Aktionen am Computer, z.B. im Browser, mittels Sprachbefehlen sind als Funktionen in der Diskussion.
Mehrere Sprachmodelle
Gemini ist laut The Information "eine Sammlung großer Sprachmodelle", die verschiedene Aufgaben wie Chatbots, Textzusammenfassungen, Code oder die Generierung neuer Texte übernehmen können. Unklar ist, ob Gemini wie OpenAI bei der GPT-4 Architektur auf vernetzte Expertenmodelle setzt.
Gemini wurde im Mai offiziell vorgestellt. Früheren Gerüchten zufolge wird das Modell mindestens eine Billion Parameter haben. Das Training soll Zehntausende von Googles TPU-KI-Chips nutzen.
Gemini-Entwicklungsleiter Demis Hassabis sagte Ende Juni, Gemini werde "einige der Stärken des AlphaGo-Systems mit den erstaunlichen Sprachfähigkeiten großer Modelle kombinieren".