Inhalt
summary Zusammenfassung

In einem kürzlich erschienenen CNN-Bericht wird Microsofts KI-Modell für die Nachrichtenaggregation bei MSN wegen fragwürdiger redaktioneller Entscheidungen kritisiert. Das ist nicht neu.

Der CNN-Bericht hebt Fälle hervor, in denen die KI Nachrichten auswählte, die entweder ungenau waren oder eine unangemessene Sprache verwendeten.

Beispiele sind eine Meldung, in der fälschlicherweise behauptet wurde, Präsident Joe Biden sei während einer Schweigeminute für die Opfer eines Waldbrandes eingeschlafen, und ein Nachruf, in dem ein NBA-Spieler abfällig beschrieben wurde.

In dem Bericht wird argumentiert, dass das automatisierte System von Microsoft weiterhin Inhalte mit beleidigenden Formulierungen und falschen Informationen anzeigt oder generiert, ohne dass eine klare Verantwortlichkeit besteht.

Anzeige
Anzeige

Das ist nicht neu: Im Jahr 2020 hat Microsoft damit begonnen, die Nachrichtenredakteure von MSN durch automatisierte Systeme zu ersetzen, die Schlagzeilen umschreiben oder Bilder ersetzen - mit fragwürdigen Ergebnissen.

MSN übernimmt Inhalte von anderen Verlagen und veröffentlicht sie auf seiner Website. Der Entscheidungsprozess, nach dem Microsoft diese Inhalte und Herausgeber auswählt, ist ebenso unklar wie der Einsatz automatisierter Systeme.

Aber nicht nur auf MSN.com versagen Microsofts KI-Informationstools in gesellschaftsbedrohlicher Weise: Eine aktuelle Studie von AlgorithmWatch und AI Forensics in Zusammenarbeit mit den Schweizer Sendern SRF und RTS hat ergeben, dass Microsofts Bing Chat auf Fragen zu den bevorstehenden Wahlen in Deutschland und der Schweiz falsche Antworten gab.

Der KI-Chatbot lieferte irreführende Informationen wie ungenaue Umfrageergebnisse und falsche Namen von Parteikandidaten. Ein Microsoft-Sprecher reagierte auf die Studie und sagte, das Unternehmen habe sich verpflichtet, seine Dienste zu verbessern, und bedeutende Fortschritte bei der Verbesserung der Genauigkeit der Antworten von Bing Chat gemacht. Die grundlegenden strukturellen Probleme mit großen Sprachmodellen, die zu diesen Fehlern führen, werden dadurch jedoch nicht behoben.

Für ein Unternehmen, das sich für den verantwortungsvollen und sicheren Einsatz von KI einsetzt, ist das eine schlechte Bilanz.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Empfehlung
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Ein CNN-Bericht kritisiert Microsofts KI-Modell für die Nachrichtenaggregation auf MSN.com und weist auf Fälle falscher oder unangemessener Inhaltsauswahl hin, wie etwa eine falsche Geschichte über Präsident Biden und einen abfälligen Nachruf.
  • Microsoft setzt seit 2020 automatisierte Systeme für MSN ein, die Schlagzeilen umschreiben und Bilder ersetzen, aber die Kriterien für die Auswahl von Inhalten und der Grad der Automatisierung bleiben unklar.
  • Auch Microsofts Chatbot Bing wurde kritisiert, weil er falsche Informationen über die Wahlen in Deutschland und der Schweiz lieferte. Das steht im Widerspruch zu Microsofts Behauptung, sich für einen verantwortungsvollen Einsatz von KI einzusetzen.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!