KI in der Praxis

Die Fehler des Bing-Chatbots sind nicht zwingend OpenAIs Schuld

Jonathan Kemper
Abstrakte Illustration einer Lupe, bunter, wellenartiger Hintergrund.

Midjourney prompted by THE DECODER

Der Bing-Chatbot bietet freien Zugriff auf das leistungsfähigste KI-Modell von OpenAI, GPT-4 - aber nicht immer. Vermutlich aus Kostengründen verwendet Microsoft auch eigene Sprachmodelle aus der Turing-Reihe, was sich auf die Qualität der Antworten auswirken könnte.

Auch rund drei Monate nach dem Launch des Bing-Chatbots neigt dieser noch immer zu Fehlern und unzuverlässigen Antworten, mehr als das Original-ChatGPT von OpenAI. Dafür gibt es nun eine mögliche Erklärung: Der Bing-Chatbot setzt nicht durchgängig auf OpenAIs KI-Modelle.

Das neue Bing wird von einem KI-Modell namens Prometheus angetrieben, wie Microsoft bereits zum Start des Dienstes kommunizierte. Das System ordnet Fragen, deren Antworten als "einfach" eingestuft werden, Microsofts Turing-Sprachmodellen zu, wie Jordi Ribas, Chef für Suche und KI, jetzt in einem Interview mit Wired berichtet.

Der Experte Peter Salin, Gründer eines KI-Start-ups, vermutet, dass die erste Antwort in der Regel von einem Turing-Modell beantwortet wird, Rückfragen aber bessere Ergebnisse liefern würden, weil sie dann von GPT-4 verarbeitet werden. So könne Microsoft Rechenkosten sparen.

Ribas weist die Behauptung zurück, dass die ersten Antworten des Bing-Chatbots generell von schlechterer Qualität seien. Ungenauere Antworten würden eher daran liegen, dass die ersten Prompts der Nutzer:innen in der Regel zu wenig Kontext böten.

Turing-Modelle sind auch ein wesentlicher Bestandteil der Bing-Suchergebnisse, wie Microsoft auf einer Landingpage erklärt. Sie sind laut Microsoft unter anderem für das Ranking, die Autovervollständigung und die Bewertung der Relevanz von Werbeanzeigen verantwortlich.

GPT-4 ist kostspielig

OpenAI gibt noch keine Zahlen zu den Einnahmen und Ausgaben rund um ChatGPT bekannt. Der Chefanalyst des Marktforschungsunternehmens SemiAnalysis, Dylan Patel, schätzt, dass ChatGPT OpenAI derzeit 700.000 Dollar pro Tag oder 36 Cent pro Anfrage kostet, also mehr als 200 Millionen Dollar pro Monat.

Geld verdient OpenAI über eine kostenpflichtige API, gerade die GPT-4-API ist teuer, und das Bezahlmodell ChatGPT Plus für 20 US-Dollar pro Monat vor Steuern, das Voraussetzung für den Zugang zu GPT-4 über ChatGPT ist. Ob OpenAI Geld verdient oder verliert, ist derzeit nicht bekannt.

Hochrechnungen von SimilarWeb gehen von etwa 100 Millionen aktiven Nutzenden im Januar aus. Wenn etwa zehn Prozent davon einen kostenpflichtigen Account hätten, könnte der reine Betrieb von ChatGPT anhand der Zahlen oben in etwa kostendeckend sein. Allerdings stehen diese Berechnungen auf sehr wackeligen Beinen.

Die hohen Rechenkosten entstehen primär durch den Einsatz der stromhungrigen Nvidia-Grafikkarten, die Microsoft laut The Information langfristig durch einen eigenen KI-Chip ersetzen will. Zumindest bis dahin liegt es nahe, dass Microsoft, das mit seinen Azure-Servern die Infrastruktur für ChatGPT und Co. bereitstellt, versucht, die Nutzung des teuren GPT-4 so gering wie möglich zu halten.

Microsofts KI-Chatbot ist seit Anfang Februar 2023 in Bing integriert und gibt einen Ausblick auf eine mögliche Zukunft der Suchmaschine: Statt eine Linkliste zu generieren, beantwortet die KI die gestellte Frage in einer kompakten Zusammenfassung - im besten Fall inklusive Links zu relevanten Quellen, damit die Aussagen des Chatbots extern validiert werden können. Dies ist der größte Vorteil von GPT-4 bei Bing gegenüber der nativen ChatGPT-Integration.

Quellen: