Inhalt
summary Zusammenfassung

Der Bing-Chatbot bietet freien Zugriff auf das leistungsfähigste KI-Modell von OpenAI, GPT-4 - aber nicht immer. Vermutlich aus Kostengründen verwendet Microsoft auch eigene Sprachmodelle aus der Turing-Reihe, was sich auf die Qualität der Antworten auswirken könnte.

Anzeige

Auch rund drei Monate nach dem Launch des Bing-Chatbots neigt dieser noch immer zu Fehlern und unzuverlässigen Antworten, mehr als das Original-ChatGPT von OpenAI. Dafür gibt es nun eine mögliche Erklärung: Der Bing-Chatbot setzt nicht durchgängig auf OpenAIs KI-Modelle.

Das neue Bing wird von einem KI-Modell namens Prometheus angetrieben, wie Microsoft bereits zum Start des Dienstes kommunizierte. Das System ordnet Fragen, deren Antworten als "einfach" eingestuft werden, Microsofts Turing-Sprachmodellen zu, wie Jordi Ribas, Chef für Suche und KI, jetzt in einem Interview mit Wired berichtet.

Der Experte Peter Salin, Gründer eines KI-Start-ups, vermutet, dass die erste Antwort in der Regel von einem Turing-Modell beantwortet wird, Rückfragen aber bessere Ergebnisse liefern würden, weil sie dann von GPT-4 verarbeitet werden. So könne Microsoft Rechenkosten sparen.

Anzeige
Anzeige

Ribas weist die Behauptung zurück, dass die ersten Antworten des Bing-Chatbots generell von schlechterer Qualität seien. Ungenauere Antworten würden eher daran liegen, dass die ersten Prompts der Nutzer:innen in der Regel zu wenig Kontext böten.

Turing-Modelle sind auch ein wesentlicher Bestandteil der Bing-Suchergebnisse, wie Microsoft auf einer Landingpage erklärt. Sie sind laut Microsoft unter anderem für das Ranking, die Autovervollständigung und die Bewertung der Relevanz von Werbeanzeigen verantwortlich.

GPT-4 ist kostspielig

OpenAI gibt noch keine Zahlen zu den Einnahmen und Ausgaben rund um ChatGPT bekannt. Der Chefanalyst des Marktforschungsunternehmens SemiAnalysis, Dylan Patel, schätzt, dass ChatGPT OpenAI derzeit 700.000 Dollar pro Tag oder 36 Cent pro Anfrage kostet, also mehr als 200 Millionen Dollar pro Monat.

Geld verdient OpenAI über eine kostenpflichtige API, gerade die GPT-4-API ist teuer, und das Bezahlmodell ChatGPT Plus für 20 US-Dollar pro Monat vor Steuern, das Voraussetzung für den Zugang zu GPT-4 über ChatGPT ist. Ob OpenAI Geld verdient oder verliert, ist derzeit nicht bekannt.

Hochrechnungen von SimilarWeb gehen von etwa 100 Millionen aktiven Nutzenden im Januar aus. Wenn etwa zehn Prozent davon einen kostenpflichtigen Account hätten, könnte der reine Betrieb von ChatGPT anhand der Zahlen oben in etwa kostendeckend sein. Allerdings stehen diese Berechnungen auf sehr wackeligen Beinen.

Empfehlung

Die hohen Rechenkosten entstehen primär durch den Einsatz der stromhungrigen Nvidia-Grafikkarten, die Microsoft laut The Information langfristig durch einen eigenen KI-Chip ersetzen will. Zumindest bis dahin liegt es nahe, dass Microsoft, das mit seinen Azure-Servern die Infrastruktur für ChatGPT und Co. bereitstellt, versucht, die Nutzung des teuren GPT-4 so gering wie möglich zu halten.

Microsofts KI-Chatbot ist seit Anfang Februar 2023 in Bing integriert und gibt einen Ausblick auf eine mögliche Zukunft der Suchmaschine: Statt eine Linkliste zu generieren, beantwortet die KI die gestellte Frage in einer kompakten Zusammenfassung - im besten Fall inklusive Links zu relevanten Quellen, damit die Aussagen des Chatbots extern validiert werden können. Dies ist der größte Vorteil von GPT-4 bei Bing gegenüber der nativen ChatGPT-Integration.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Das neue Bing war die erste frei zugängliche Schnittstelle zu GPT-4.
  • Die Anfragen der Suchmaschine werden jedoch nicht immer mit dem mächtigsten Sprachmodell von OpenAI beantwortet. Stattdessen verwendet Microsoft auch eigene Turing-Sprachmodelle.
  • Microsoft hat diese Architektur vermutlich aus Kostengründen entwickelt.
Quellen
Jonathan ist Technikjournalist und beschäftigt sich stark mit Consumer Electronics. Er erklärt seinen Mitmenschen, wie KI bereits heute nutzbar ist und wie sie im Alltag unterstützen kann.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!