Inhalt
summary Zusammenfassung

Im Zuge einer Entlassungswelle löst Microsoft sein Team für KI-Ethik und soziale Verantwortung auf. Dennoch will der Konzern weiter in verantwortungsvolle KI investieren.

Anzeige

Der Newsletter "Platformer" berichtete zuerst, dass Microsoft das gesamte Team für Ethik und soziale Verantwortung der eigenen KI-Einheit gehen lässt. Die Entlassungen sind Teil eines Stellenabbauprogramms, das bis Ende März läuft. Insgesamt entlässt Microsoft rund 10.000 Mitarbeitende in allen Abteilungen.

Microsoft will weiterhin in verantwortungsvolle KI investieren

Microsoft unterhält weiterhin ein "Office of Responsible AI" und gibt an, trotz der Entlassungen die Investitionen in verantwortliche KI zu erhöhen. Die Zahl der Beschäftigten, die für ethische und soziale Fragen zuständig sind, sei in den letzten sechs Jahren in den entsprechenden Produktteams und im Office of Responsible AI gestiegen. Diese Personen seien "zusammen mit allen Beschäftigten von Microsoft" für die Umsetzung der eigenen KI-Prinzipien verantwortlich, heißt es in einer offiziellen Stellungnahme.

Ein ehemaliger Mitarbeiter des Ethik-Teams kritisiert diese Einschätzung: "Unser Job war es, ihnen zu zeigen, wie sie die Prinzipien integrieren können und Regeln in Bereichen zu entwickeln, in denen es keine gab." Das "Office for Responsible AI" würde diese Lücke nicht füllen.

Anzeige
Anzeige

Das KI-Ethik-Team umfasste 2020 bis zu 30 Personen. Im vergangenen Oktober wurde es im Zuge einer Reorganisation bereits auf sieben Personen verkleinert. Mitarbeitende des Teams wurden an andere Stellen im Unternehmen versetzt.

Bei einem Treffen nach der Reorganisation habe Microsofts Corporate Vice President of AI, John Montgomery, die Teammitglieder darüber informiert, dass Microsofts CTO Kevin Scott und CEO Satya Nadella "sehr, sehr großen Druck" ausübten, die KI-Modelle von OpenAI "in einem sehr hohen Tempo" an die Verbraucher auszurollen.

Ein Mitglied des Teams habe Montgomery gebeten, die Entscheidung zu überdenken, damit Microsoft seiner hohen sozialen Verantwortung besser gerecht werden könne. Dieser habe dies jedoch aufgrund des hohen Drucks aus der Chefetage abgelehnt.

Ziel der Reorganisation sei es zudem gewesen, die Kompetenzen in die Produktteams zu verlagern und nicht, das Team aufzulösen. Das verbliebene siebenköpfige Team habe aber intern kaum mehr Möglichkeiten gehabt, seine Pläne durchzusetzen. Am 6. März informierte Montogomery die verbliebenen Mitglieder per Zoom-Call über die Auflösung des Ethik-Teams.

ChatGPT in der Bing-Suche – Kritik an Microsofts Vorgehen

Microsoft will den Hype um ChatGPT nutzen, um unter anderem Marktanteile im Suchgeschäft zu gewinnen und die Margen von Google unter Druck zu setzen. Das wiederum könnte Microsoft Vorteile in anderen Geschäftsbereichen wie dem Cloud-Geschäft verschaffen.

Empfehlung

Innerhalb weniger Wochen integrierte der Konzern daher eine ChatGPT-Variante in die Bing-Suche. Sie wurde teils kritisiert, weil "Sydney", so der Codename des Bing-Bots, falsche Informationen und Zitate verbreitete, anfangs teils beleidigende oder verwirrende Antworten generierte und Nutzerinnen und Nutzer in seltsame Gespräche verwickelte.

Microsoft musste nachbessern und die Anzahl der Gespräche begrenzen, um wenigstens die emotionalen Ausraster des Bots einzudämmen. Dennoch produziert das System weiterhin falsche Informationen. Microsoft kannte diese Probleme lange vor dem offiziellen Start der Chatbot-Suche, nahm sie aber in Kauf.

Auch die von OpenAI angebotene ChatGPT-API-Integration kann kritisch betrachtet werden, etwa wenn der Snapchat-ChatGPT-Bot einem minderjährigen Mädchen empfiehlt, mit einem 31-jährigen Mann auf Tour zu gehen. Ein Unternehmen beklagte Anfragen von verärgerten Kunden, weil ChatGPT ein Produkt empfahl, das es nicht führte.

Das Spannungsfeld bei der Ausrollung großer KI-Sprachmodelle besteht darin, dass die Systeme einerseits Probleme haben, die womöglich nur durch iterativen Praxiseinsatz, Skalierung und menschliches Feedback gelöst werden können.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Andererseits könnte sich ein rücksichtsloser Wettlauf um Marktanteile entwickeln, bei dem Unternehmen unter dem Deckmantel dieses Feedback-Prozesses individuelle oder gesellschaftliche Schäden in Kauf nehmen.

Das aktuelle Vorgehen von Microsoft und das Durchsickern des großen Sprachmodells LLaMA von Meta stellen eine sichere und verantwortungsvolle Ausrollung kommerzieller KI-Systeme durch Technologieunternehmen zumindest infrage.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Microsoft löst sein Ethik-Team in der KI-Abteilung auf.
  • Der Konzern gibt aber an, dass er weiter in verantwortungsvolle KI investiert und dafür verantwortliches Personal zugenommen habe.
  • Intern soll die Chefetage großen Druck machen, OpenAIs KI-Modelle möglichst schnell in Produkte zu überführen.
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!