Inhalt
newsletter Newsletter

Wie Konzerne mit Künstlicher Intelligenz umgehen, ist ein entscheidendes Thema für die Zukunft unserer Gesellschaft. Das zeigt sich bei sensiblen Themen wie Überwachung. Entsprechend genau sollten wir alle hinschauen, wie sich Unternehmen zu KI-Ethik positionieren - nach außen und nach innen.

Anzeige

Nach außen präsentierte Google Ende März ein neues Gremium mit externen Experten, die den eigenen Angestellten bei Fragen zur KI-Ethik beratend zur Seite stehen sollten.

Doch schon unmittelbar nach der namentlichen Bekanntgabe der Experten regte sich im Konzern Widerstand gegen zwei der acht Mitglieder, da sie politisch fragwürdige Positionen vertreten würden. Die Kritik wurde unter anderem in einem offenen Brief formuliert.

Ein angedachter Kandidat lehnte die Teilnahme an Googles Ethikrat gar öffentlich ab: Er glaube nicht, dass der Rat ihm für diese wichtige Arbeit "das richtige Umfeld" biete.

Anzeige
Anzeige

Wenige Tage nach den Protesten zog Google die Reißleine und löste den Ethikrat wieder auf: Es sei klar geworden, dass er "im aktuellen Umfeld" nicht funktionieren könne. Der Konzern müsse "zurück ans Reißbrett".

Der Rückzug passierte zur Freude von Meredith Whittaker, die an der New York Universität und bei Google seit mehr als zehn Jahren zu Künstlicher Intelligenz und speziell zu Ethik forscht. Whittaker initiierte den Protest mit.

Wired wurde jetzt eine interne E-Mail zugespielt, nach der Whittaker unmittelbar nach der Auflösung des Ethikrates mitgeteilt wurde, dass sich ihre Rolle im Unternehmen "dramatisch verändern" würde.

Um weiter bei Google zu arbeiten, müsse sie ihre Arbeit an KI-Ethik einstellen und ihre Rolle im "AI Now Institute" aufgeben, das sie 2017 an der Universität New York mitgründete.

Das Institut gehört zu den weltweit wichtigsten Institutionen bei der Forschung zu KI-Ethik und den gesellschaftlichen Einflüssen Künstlicher Intelligenz.

Empfehlung

"Ich arbeite seit Jahren an Fragen zu KI-Ethik und -Vorurteilen und habe das Feld mitgestaltet, indem ich auf die Probleme aufmerksam gemacht habe", schreibt Whittaker. "Ich bin Risiken eingegangen, um auf ein ethischeres Google hinzuarbeiten, auch wenn es weniger profitabel oder bequem ist."

Sie spricht von einer "Kultur der Vergeltung" bei Google, die nicht immer offensichtlich sei. Ihre Stellung im Institut will sie nicht ohne weiteres aufgeben:

Sie erhält intern Rückendeckung von François Chollet, einem führenden Deep-Learning-Forscher bei Google.

Ebenfalls Rachevorwürfe gegenüber Google erhebt Claire Stapleton, die gemeinsam mit Whittaker und fünf weiteren Angestellten am 1. November 2018 einen internen Protest gegen sexuelle Belästigung organisierte: 20.000 Google-Mitarbeiter und -Mitarbeiterinnen verließen vorübergehend ihren Arbeitsplatz.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Stapleton beteiligte sich ebenfalls am Beschwerdebrief gegen den KI-Ethikrat.

Stapleton schreibt, dass ihr rund zwei Monate nach dem Protest im November Projekte und Verantwortung entzogen wurden. Außerdem sei ihr eine Krankmeldung nahegelegt worden - ohne gesundheitlichen Anlass. Mit Unterstützung eines Anwalts habe sie ihre Rechte zurückerhalten, die Arbeitsumgebung bliebe aber "feindlich".

Google bezieht gegenüber Wired Stellung zu den Vorwürfen: Es sei normal, dass Angestellten neue Aufgaben zugewiesen und Teams reorganisiert würden. "Es gab in diesem Fall keine Vergeltung."

Quelle: Wired; Titelbild: Google

Weiterlesen über KI-Ethik:

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!