Microsoft hat auf eine Bing-Suche nach "Chrome" eine KI-generierte Antwort ausgespielt, die statt eines Verweises auf Chrome den Bing-Browser bewirbt.
Dadurch wurde das eigentlich gewünschte Suchergebnis aus dem ersten Viewport verdrängt. Da die Antwort bei stichprobenartigen Tests immer gleich aussah, ist davon auszugehen, dass Microsoft die Antwort der KI gezielt vorgegeben hat. Die Generierung der Antwort war also eine bewusste Täuschung, tatsächlich wurde nur ungekennzeichnete Werbung in Form einer vermeintlich authentischen Chatbot-Antwort ausgespielt.
Microsoft hat die KI-Antwort nach einem Bericht von Sean Hollister von The Verge deaktiviert. Die offizielle Stellungnahme von Microsoft lautet, es habe sich um ein "Experiment" gehandelt.
Laut Hollister war dieselbe Antwort auf verschiedenen Rechnern in verschiedenen Ländern reproduzierbar. Sie sei nicht überall aufgetreten, es habe sich aber "definitiv nicht nur um ein kleines Experiment in einer einzelnen Region" gehandelt.
Microsoft erteilt Lehrstunde, wie man generative KI nicht einsetzen sollte
Wieso ist dieses Experiment verwerflich? Schließlich hat Microsoft schon immer aggressiv Bing-Werbung im Chrome-Kontext geschaltet.
Dieser Fall wiegt aus meiner Sicht schwerer, weil Microsoft hier bewusst die Überzeugungskraft eines persönlichen Assistenten mit individueller Beratung, die der Bing-Chat widerspiegeln soll, missbraucht, um in Wirklichkeit vorgenerierte Werbung zu schalten, die nicht als solche gekennzeichnet ist.
KI verantwortungsvoll einsetzen? Das ist nicht der Weg, Microsoft.
Bereits zuvor war der Bing Chat teilweise in die Kritik geraten, da er neben inhaltlichen Fehlern auch "emotionale" Ausfälle zeigte. Microsoft schränkte daraufhin die Interaktionen ein. Das Unternehmen wusste um die Schwächen des Systems, rollte es aber dennoch aus, um im Wettlauf mit Google die Nase vorn zu haben und die Finanzmärkte zu beeindrucken. Microsoft will Bing Chat im Juni in andere Browser expandieren und zur Plattform ausbauen.