KI und Gesellschaft

Künstliche Intelligenz: Googles Deepmind gründet Ethikabteilung

Matthias Bastian
Deepminds KI-Forschung kostet viel Geld. Ob und wann sie viel verdient, ist offen. Ein KI-Forscher fürchtet, dass die Investitionen in die falsche Technologie fließen.

Ganz egal, ob Künstliche Intelligenz die Welt, unseren Umgang mit Computern oder gar nichts verändert - es schadet nie, vorbereitet zu sein.

Die neu gegründete interne Forschungsruppe "Ethics and Society" des Google-Unternehmens Deepmind beschäftigt sich im Schwerpunkt mit den möglichen gesellschaftlichen, kulturellen und politischen Folgen fortschrittlicher Künstlicher Intelligenz. Sie wird von Vertretern aus der Wissenschaft und dem Non-Profit-Sektor beraten, die ihre Perspektiven ergänzen sollen.

Deepminds Ethikabteilung soll jene Fragen erforschen und verstehen, die potenziell große Auswirkungen auf die Menschheit haben könnten: Wie viele Jobs wird die Automatisierung durch KI-Systeme kosten - und welche könnten neu kreiert werden? Welche Entscheidungen darf eine künstliche Intelligenz fällen? Und wie wird mit Vorurteilen in KI-Systemen umgegangen, die für die Entscheidungsfindung eingesetzt werden, beispielsweise im medizinischen Sektor oder vor Gericht? Könnte ein weit fortgeschrittenes KI-System tatsächlich die Menschheit bedrohen? Welche Regeln braucht es, um dieses apokalyptische Szenario zu verhindern?

Die Geschichte zeige, dass technologische Innovation keine Garantie für sozialen Fortschritt sei, schreiben die Leiter von Deepminds Ethikabteilung im eigenen Blog. Die Entwicklung von Künstlicher Intelligenz schaffe neue und komplexe Fragestellungen. Die Auswirkungen auf Gesellschaft und das menschliche Leben dürfe nicht dem Zufall überlassen werden. Aber: "In einem komplexen Feld wie Künstlicher Intelligenz ist das einfacher gesagt als getan."

Den Kritikern voraus sein

Deepmind reagiert mit der neuen Gruppe proaktiv auf KI-Kritiker. Zuletzt äußerte der Tech-Milliardär Elon Musk - ein Sprachrohr der Techbranche, dem viel Aufmerksamkeit zuteil wird - wiederholt grundlegende Befürchtungen hinsichtlich der Gefahren, die von sehr fortschrittlichen KI-Systemen ausgehen könnten. Künstliche Intelligenz könne potenziell gar das Ende der Menschheit bedeuten, formulierte Musk.

Für seine Thesen bekam er bereits reichlich Gegenwind, zum Beispiel von Facebook-Chef Marc Zuckerberg oder den Microsoft-Bossen Satya Nadella und Bill Gates. Allerdings investieren Google und Microsoft massiv in kluge Algorithmen, können demnach als Lobbyisten der Technologie gesehen werden.

Ob ausgerechnet ein auf KI spezialisiertes Subunternehmen von Google, das die Fortentwicklung Künstlicher Intelligenz zur zentralen Unternehmensstrategie ernannt hat, die notwendige Aufklärung sachlich und neutral betreiben kann, darf zumindest angezweifelt werden.

Damit KI der Gesellschaft dienen könne, heißt es im Deepmind-Blog, müsse sie entlang sozialer Prioritäten und Bedenken entwickelt werden. Man sei nicht auf der Suche nach geschlossenen Lösungen, sondern wolle kollektive Antworten finden auf die zukünftigen Auswirkungen von KI, um so den Weg zu ebnen für eine "wirklich nützliche und verantwortliche Künstliche Intelligenz".

| Featured Image: Screenshot der Deepmind-Webseite vom 5. Oktober 2017