Inhalt
newsletter Newsletter

Google wendet sich in einer neuen Veröffentlichung an die Staatengemeinschaft und schlägt Regulierungen vor.

Anzeige

Im Juni 2018 veröffentlichte Google-Chef Sundar Pichai Prinzipien für den Umgang mit und die Entwicklung von Künstlicher Intelligenz. Der Konzern versprach außerdem, in naher Zukunft keine Gesichtserkennungssoftware zu verkaufen – anders als Microsoft und Amazon.

Vorausgegangen war ein interner Streit um das Militärprojekt "Maven", an dessen Ende sich Googles Führung entschied, den Protesten der Belegschaft gegen Maven nachzugeben. Google verzichtete so auf einen möglichen Militär-Deal über angeblich bis zu zehn Milliarden US-Dollar.

KI: Mächtig mächtig

Jetzt veröffentlicht Google ein Whitepaper, das der Regierung in fünf Bereichen die Regulierung Künstlicher Intelligenz nahelegt.

Anzeige
Anzeige

"KI kann große Vorteile für Wirtschaft und Gesellschaft bringen und eine gerechtere, sicherere, integrativere und besser informierte Entscheidungsfindung unterstützen", heißt es in der Veröffentlichung.

Dies sei mit einer vorsichtigen Entwicklung möglich, die nicht unbedingt Regulierungen erfordere. In den meisten Fällen reichten bereits etablierte Strukturen, so die Autoren.

Google ruft Regierungen und zivile Organisationen zu einem Dialog auf

Doch es existierten Anwendungsszenarien, in denen die Zivilgesellschaft vor neuen Herausforderungen stünde. Hier gelte es, die Erwartungen an Künstliche Intelligenz zu klären und entsprechende Maßnahmen zu ergreifen.

Google identifiziert fünf Bereiche der KI-Entwicklung, in denen staatliche Regulierungen sinnvoll sein sollen.

Erklärungsstandards

Aktuelle KI-Anwendungen beruhen in den meisten Fällen auf tiefen neuronalen Netzwerken. Oft als "Blackbox" bezeichnet, sind die Entscheidungen dieser Netzwerke selbst für Experten häufig nicht mehr einwandfrei nachvollziehbar.

Empfehlung

Google schlägt daher staatlich vorgeschriebene Erklärungsstandards für KI-Systeme vor. Die sollen regeln, unter welchen Umständen und in welchem Ausmaß ein KI-System Entscheidungen transparent machen muss.

Fairnessbewertung

Immer wieder werden Fälle bekannt, in denen KI-Systeme mit nicht repräsentativen Daten trainiert wurden. Solche KIs werden dann als unfair bezeichnet – sie entwickeln Vorurteile vergleichbar mit Menschen.

Google weist darauf hin, dass Repräsentativität nicht die einzige Definition von Fairness ist: Wenn etwa keine Kredite an die Bewohner wirtschaftlich schwacher Wohngebiete vergeben werden, ist das die direkte Folge von realen Umständen, die sich in den Daten widerspiegeln.

Diese sind dann zwar repräsentativ, der Algorithmus dadurch aber nicht automatisch fair. Denn die aus den Berechnungen folgenden Konsequenzen zementieren bestehende Verhältnisse und automatisieren Ungleichheit, wie Autorin Virginia Eubanks in ihrem Buch "Automating Inequality" beschreibt.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Hier sieht Google die Gesetzgeber in der Verantwortung: Sie sollen klären, welche Rahmenbedingungen KI-Systeme einhalten müssen, damit sie als fair gelten. Reicht ein sauberer Datensatz oder muss bei der Entwicklung und Implementierung auf weitere Rahmenbedingungen geachtet werden?

Sicherheitserwägungen

KI-Systeme können fehleranfällig oder Ziel von Cyber-Attacken sein. Um Anwendern und Herstellern im Falle eines Angriffs Rechtssicherheit zu geben, schlägt Google staatliche Regulierungen vor.

Zu den Vorschlägen zählt die Einrichtung eines Sicherheitszertifizierungszeichens für KI-Systeme, die Tests für kritische Anwendungen bestanden haben.

Zusätzlich sollen die Gesetzgeber die notwendigen Sicherheitsvorkehrungen und Dokumentationsstandards im Umgang mit KI-Systemen umreißen: Wer darf welche Systeme bedienen? Was muss dokumentiert werden?

Zusammenarbeit zwischen Mensch und KI

Sollten Menschen die Kontrolle über KI-Systeme behalten? Braucht eine Drohne den Befehl des Menschen, bevor sie attackiert? Wie viel Autonomie erlaubt die Menschheit den Maschinen?

Während bei militärischen Konflikten nach gängiger Meinung der Mensch über Leben und Tod entscheiden soll, ist es bei anderen Anwendungen nicht so eindeutig: Profitieren Kreditvergabe, Nachrichtenauswahl, Youtube-Spamfilter oder Krebsdiagnose von menschlichen Entscheidungen?

Anzeige
Anzeige

Laut Google müssen Staaten die Anwendungsszenarien bestimmen, in denen Entscheidungen nicht vollständig durch ein KI-System automatisiert werden sollten.

Da sich eine Entscheidungskontrolle technisch unterschiedlich umsetzen lässt, wünscht sich Google eine Bewertung der verschiedenen Sicherheitsansätze. Das Unternehmen zielt auch hier wohl primär auf Rechtssicherheit ab.

Haftungsrahmen

Ein großes Problem für KI-Anwender und -Entwickler: Wer hat Schuld, wenn etwas schiefgeht? Was passiert, wenn mein selbstfahrendes Auto einen Unfall baut?

Google lehnt es ab, dass eine Software die Schuld an einer falschen Entscheidung tragen kann. Das sei nicht durchführbar, unmoralisch und offen für Missbrauch. Die zugrundeliegende Argumentation ist, dass Maschinen nicht die Rolle einer juristischen Person einnehmen könnten.

Staaten müssten potenzielle Schwachstellen in den bestehenden Haftungsregeln finden und anpassen. In Bereichen, in denen traditionelle Haftungsregeln unzureichend seien, brauche es möglicherweise alternative Versicherungsmodelle.

Doch Google warnt vor zu viel Verantwortungsdruck für Entwickler: Der Gesetzgeber soll KI-Forschung, sofern sie nützliche Innovationen hervorbringt, durch Haftungsausschlüsse oder Obergrenzen bei Bußgeldern schützen. Sonst könne ein Fehler einer KI-Software beispielsweise eine Universität in den Ruin treiben.

Anzeige
Anzeige

Google nimmt seine Rolle ernster

Googles Veröffentlichung ist ein Zugeständnis an ethische Leerstellen der KI-Entwicklung und -Implementierung. Inhaltlich bietet das Papier politischen Entscheidern konkret und transparent Orientierung und stellt eine Liste grundlegender Fragen zur Verfügung, die geklärt werden müssen.

"Kein Unternehmen, kein Land und keine Gemeinschaft kennt alle Antworten", heißt es im Papier. "Im Gegenteil, es ist entscheidend, dass politische Interessengruppen weltweit an diesen Gesprächen teilnehmen."

Titelbild: Google AI Logo

Weiterlesen über Künstliche Intelligenz

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!