Microsoft gehört knapp die Hälfte von OpenAI, arbeitet aber angeblich dennoch an einem Plan B für KI, der mehr Unabhängigkeit verspricht.
Der Grund dafür sind laut The Information die hohen Betriebskosten von OpenAIs KI-Modellen wie GPT-4. Die Webseite bezieht sich auf eine angestellte und eine kürzlich ausgeschiedene Person.
Microsoft-Forschungschef Peter Lee habe "viele" der insgesamt 1500 Forscherinnen und Forscher damit beauftragt, Dialog-KI-Systeme zu entwickeln, die kleiner und billiger zu betreiben seien, auch wenn sie wahrscheinlich weniger leisten als GPT-4.
Microsoft integriert derzeit KI-Funktionen in fast alle seine Produkte, sogar als Copilot in Windows. Bei potenziell mehr als einer Milliarde Nutzern könnten die Betriebskosten für KI explodieren und alle wirtschaftlichen Vorteile, die sich beispielsweise aus einer breiteren und intensiveren Nutzung ergeben, zunichte machen. Google steht vor einer ähnlichen Herausforderung, wenn es generative KI in die Google-Suche einführt.
Gute KI ist teuer
Die Umstrukturierung soll noch in den Anfängen stecken. Dennoch sollen Microsofts Produktteams bereits eigene KI-Modelle in ersten Produkten wie Bing Chat testen.
Laut Mikhail Parakhin, dem Suchchef von Microsoft, verwendet Bing Chat im Kreativ- und Präzisionsmodus derzeit zu 100 Prozent GPT-4. Im Balanced-Modus, den wohl die meisten Nutzerinnen und Nutzer wählen, verwendet Microsoft ergänzend das selbst entwickelte "Prometheus-Modell", eine "Sammlung von Fähigkeiten und Techniken", sowie eigene Turing-Sprachmodelle.
Die Turing-Modelle sind weniger leistungsfähig als GPT-4. Sie sollen einfache Anfragen erkennen und beantworten und schwierige Fragen an GPT-4 weiterleiten, was womöglich nicht immer so gut klappt.
Microsoft hat zudem kürzlich das 1,3 Milliarden Parameter kleine und effiziente Code-Modell Phi-1 vorgestellt, das mit besonders hochwertigen Daten in Lehrbuchqualität trainiert wurde. Es erreicht die Code-Performance viel größerer Modelle in Python, bleibt aber deutlich hinter GPT-4 zurück.
Darüber hinaus experimentiert Microsoft mit Modellen wie Orca, das auf Llama 2 von Meta basiert und teilweise das Niveau von GPT-3.5 und GPT-4 erreichen soll, obwohl es kleiner und effizienter ist. Benchmark-Ergebnisse und die reale Nutzererfahrung können jedoch erheblich voneinander abweichen.
Forschungsleiter Peter Lee soll angewiesen haben, einen großen Teil der 2.000 Nvidia-Grafikkarten, die seiner Forschungseinheit zur Verfügung stehen, für die Entwicklung solcher effizienterer Modelle zu verwenden, die einfachere Aufgaben als GPT-4 übernehmen könnten, etwa im Kundendienst. Im Vergleich zu den Ressourcen für OpenAI soll es sich dabei um wenig Ressourcen handeln.
Laut Wall Street Journal hält Microsoft 49 Prozent an OpenAI. Auch The Information geht davon aus, dass die Verbindung zwischen den beiden Unternehmen noch viele Jahre bestehen wird.
Teilweise soll es dennoch zu Spannungen kommen, da sich Microsoft und OpenAI bei der Produktentwicklung nicht immer abstimmen und mit Produkten wie ChatGPT Enterprise und Bing Chat Enterprise direkt um die gleiche Zielgruppe kämpfen.
Kürzlich veröffentlichte Microsoft bei Github ein kostenloses "Private ChatGPT"-Interface, das es mit Vorteilen im Datenschutz gegenüber ChatGPT anpries. Die Github-Seite wurde inzwischen gelöscht. Auf mehrfache Anfragen zu der Github-Seite und zu Private ChatGPT hat Microsoft nicht geantwortet.