In einem kürzlich erschienenen CNN-Bericht wird Microsofts KI-Modell für die Nachrichtenaggregation bei MSN wegen fragwürdiger redaktioneller Entscheidungen kritisiert. Das ist nicht neu.
Der CNN-Bericht hebt Fälle hervor, in denen die KI Nachrichten auswählte, die entweder ungenau waren oder eine unangemessene Sprache verwendeten.
Beispiele sind eine Meldung, in der fälschlicherweise behauptet wurde, Präsident Joe Biden sei während einer Schweigeminute für die Opfer eines Waldbrandes eingeschlafen, und ein Nachruf, in dem ein NBA-Spieler abfällig beschrieben wurde.
In dem Bericht wird argumentiert, dass das automatisierte System von Microsoft weiterhin Inhalte mit beleidigenden Formulierungen und falschen Informationen anzeigt oder generiert, ohne dass eine klare Verantwortlichkeit besteht.
Das ist nicht neu: Im Jahr 2020 hat Microsoft damit begonnen, die Nachrichtenredakteure von MSN durch automatisierte Systeme zu ersetzen, die Schlagzeilen umschreiben oder Bilder ersetzen - mit fragwürdigen Ergebnissen.
MSN übernimmt Inhalte von anderen Verlagen und veröffentlicht sie auf seiner Website. Der Entscheidungsprozess, nach dem Microsoft diese Inhalte und Herausgeber auswählt, ist ebenso unklar wie der Einsatz automatisierter Systeme.
Aber nicht nur auf MSN.com versagen Microsofts KI-Informationstools in gesellschaftsbedrohlicher Weise: Eine aktuelle Studie von AlgorithmWatch und AI Forensics in Zusammenarbeit mit den Schweizer Sendern SRF und RTS hat ergeben, dass Microsofts Bing Chat auf Fragen zu den bevorstehenden Wahlen in Deutschland und der Schweiz falsche Antworten gab.
Der KI-Chatbot lieferte irreführende Informationen wie ungenaue Umfrageergebnisse und falsche Namen von Parteikandidaten. Ein Microsoft-Sprecher reagierte auf die Studie und sagte, das Unternehmen habe sich verpflichtet, seine Dienste zu verbessern, und bedeutende Fortschritte bei der Verbesserung der Genauigkeit der Antworten von Bing Chat gemacht. Die grundlegenden strukturellen Probleme mit großen Sprachmodellen, die zu diesen Fehlern führen, werden dadurch jedoch nicht behoben.
Für ein Unternehmen, das sich für den verantwortungsvollen und sicheren Einsatz von KI einsetzt, ist das eine schlechte Bilanz.