KI und Gesellschaft

Microsoft entlässt KI-Ethik-Team - Chefetage macht Druck auf die Produktteams

Matthias Bastian

Midjourney prompted by THE DECODER

Im Zuge einer Entlassungswelle löst Microsoft sein Team für KI-Ethik und soziale Verantwortung auf. Dennoch will der Konzern weiter in verantwortungsvolle KI investieren.

Der Newsletter "Platformer" berichtete zuerst, dass Microsoft das gesamte Team für Ethik und soziale Verantwortung der eigenen KI-Einheit gehen lässt. Die Entlassungen sind Teil eines Stellenabbauprogramms, das bis Ende März läuft. Insgesamt entlässt Microsoft rund 10.000 Mitarbeitende in allen Abteilungen.

Microsoft will weiterhin in verantwortungsvolle KI investieren

Microsoft unterhält weiterhin ein "Office of Responsible AI" und gibt an, trotz der Entlassungen die Investitionen in verantwortliche KI zu erhöhen. Die Zahl der Beschäftigten, die für ethische und soziale Fragen zuständig sind, sei in den letzten sechs Jahren in den entsprechenden Produktteams und im Office of Responsible AI gestiegen. Diese Personen seien "zusammen mit allen Beschäftigten von Microsoft" für die Umsetzung der eigenen KI-Prinzipien verantwortlich, heißt es in einer offiziellen Stellungnahme.

Ein ehemaliger Mitarbeiter des Ethik-Teams kritisiert diese Einschätzung: "Unser Job war es, ihnen zu zeigen, wie sie die Prinzipien integrieren können und Regeln in Bereichen zu entwickeln, in denen es keine gab." Das "Office for Responsible AI" würde diese Lücke nicht füllen.

Das KI-Ethik-Team umfasste 2020 bis zu 30 Personen. Im vergangenen Oktober wurde es im Zuge einer Reorganisation bereits auf sieben Personen verkleinert. Mitarbeitende des Teams wurden an andere Stellen im Unternehmen versetzt.

Bei einem Treffen nach der Reorganisation habe Microsofts Corporate Vice President of AI, John Montgomery, die Teammitglieder darüber informiert, dass Microsofts CTO Kevin Scott und CEO Satya Nadella "sehr, sehr großen Druck" ausübten, die KI-Modelle von OpenAI "in einem sehr hohen Tempo" an die Verbraucher auszurollen.

Ein Mitglied des Teams habe Montgomery gebeten, die Entscheidung zu überdenken, damit Microsoft seiner hohen sozialen Verantwortung besser gerecht werden könne. Dieser habe dies jedoch aufgrund des hohen Drucks aus der Chefetage abgelehnt.

Ziel der Reorganisation sei es zudem gewesen, die Kompetenzen in die Produktteams zu verlagern und nicht, das Team aufzulösen. Das verbliebene siebenköpfige Team habe aber intern kaum mehr Möglichkeiten gehabt, seine Pläne durchzusetzen. Am 6. März informierte Montogomery die verbliebenen Mitglieder per Zoom-Call über die Auflösung des Ethik-Teams.

ChatGPT in der Bing-Suche – Kritik an Microsofts Vorgehen

Microsoft will den Hype um ChatGPT nutzen, um unter anderem Marktanteile im Suchgeschäft zu gewinnen und die Margen von Google unter Druck zu setzen. Das wiederum könnte Microsoft Vorteile in anderen Geschäftsbereichen wie dem Cloud-Geschäft verschaffen.

Innerhalb weniger Wochen integrierte der Konzern daher eine ChatGPT-Variante in die Bing-Suche. Sie wurde teils kritisiert, weil "Sydney", so der Codename des Bing-Bots, falsche Informationen und Zitate verbreitete, anfangs teils beleidigende oder verwirrende Antworten generierte und Nutzerinnen und Nutzer in seltsame Gespräche verwickelte.

Microsoft musste nachbessern und die Anzahl der Gespräche begrenzen, um wenigstens die emotionalen Ausraster des Bots einzudämmen. Dennoch produziert das System weiterhin falsche Informationen. Microsoft kannte diese Probleme lange vor dem offiziellen Start der Chatbot-Suche, nahm sie aber in Kauf.

Auch die von OpenAI angebotene ChatGPT-API-Integration kann kritisch betrachtet werden, etwa wenn der Snapchat-ChatGPT-Bot einem minderjährigen Mädchen empfiehlt, mit einem 31-jährigen Mann auf Tour zu gehen. Ein Unternehmen beklagte Anfragen von verärgerten Kunden, weil ChatGPT ein Produkt empfahl, das es nicht führte.

Das Spannungsfeld bei der Ausrollung großer KI-Sprachmodelle besteht darin, dass die Systeme einerseits Probleme haben, die womöglich nur durch iterativen Praxiseinsatz, Skalierung und menschliches Feedback gelöst werden können.

Andererseits könnte sich ein rücksichtsloser Wettlauf um Marktanteile entwickeln, bei dem Unternehmen unter dem Deckmantel dieses Feedback-Prozesses individuelle oder gesellschaftliche Schäden in Kauf nehmen.

Das aktuelle Vorgehen von Microsoft und das Durchsickern des großen Sprachmodells LLaMA von Meta stellen eine sichere und verantwortungsvolle Ausrollung kommerzieller KI-Systeme durch Technologieunternehmen zumindest infrage.

Quellen: