Warum wir verantwortungsvolle KI brauchen, welche Schäden eine unkontrollierte KI-Einführung mit sich bringt und wie verantwortungsvolle KI-Praktiken Unternehmen und Kunden zugutekommen.
KI setzt sich in allen Sektoren rasch durch. Der weltweite Umsatz des KI-Marktes wird voraussichtlich um 19,6 % pro Jahr wachsen und 2023 ein Volumen von 500 Milliarden US-Dollar erreichen. Diese Zunahme der Anwendungsfälle und die Normalisierung von KI im Alltag und in der Industrie wurden von Vorschriften und Initiativen begleitet, um die Verbraucher:innen vor dem potenziellen Schaden zu schützen, der durch die unkontrollierte Einführung und Nutzung von KI-Systemen verursacht werden kann.
Am offensichtlichsten sind die finanziellen und rufschädigenden Schäden, die durch einen Systemausfall in einem kritischen Geschäftsprozess verursacht werden, wie beispielsweise der Ausfall des Handelsalgorithmus der Knight Capital Group, der das Unternehmen an einem einzigen Handelstag 440 Millionen Dollar kostete. Solche Fehler können für Unternehmen extrem schädlich sein. Daher werden solche Fehler in der Regel durch strenge Tests während der Entwicklung ausgeschlossen, die mit zunehmender Reife der automatisierten Systeme immer wichtiger geworden sind.
Es gibt jedoch auch eine weniger offensichtliche Seite des potenziellen Schadens: Bias. Auch dieser kann finanzielle und rufschädigende Auswirkungen haben, wenn auch häufiger in Form von Geldstrafen seitens der Aufsichtsbehörden und der Veränderung der öffentlichen Meinung über ein Unternehmen, wenn die Verzerrung des Systems aufgedeckt wird. Der subtile Charakter des Bias automatischer Systeme ist, dass er sich in der Regel nicht in Form eines katastrophalen Ausfalls eines kritischen Geschäftssystems, wie z.B. eines bösartigen Handelsalgorithmus, manifestiert.
Vielmehr sind es oft die Nutzerinnen und Nutzer dieser Systeme, die über einen längeren Zeitraum betroffen sind. In den letzten Jahren gab es mehrere viel beachtete Skandale, bei denen das Leben von Menschen durch automatisierte Systeme, die angeblich so funktionierten, wie sie sollten, negativ beeinflusst wurde - von Recruiting-Systemen, die Männer bevorzugten, bis hin zu KI-Systemen, die die Rückfallwahrscheinlichkeit von Verurteilten bewerteten und Schwarze benachteiligten.
Solche Vorfälle zeigen die Notwendigkeit einer Regulierung von KI-Systemen durch den Gesetzgeber, werfen aber auch die Frage auf, welche Verantwortung einzelne Unternehmen haben, wenn es darum geht, potenziellen Schaden von Nutzerinnen und Nutzern ihrer Systeme abzuwenden und ihren Interessen zu dienen, um finanzielle Schäden und Reputationsverlust zu vermeiden. Dies hat in der Technologiebranche zu einem wachsenden Trend hin zu "Responsible AI" (verantwortungsvolle KI) geführt.
Was ist "Responsible AI"?
Verantwortungsvolle KI zielt darauf ab, potenzielle Schäden durch KI-Systeme zu verhindern und sicherzustellen, dass sie ethisch, sicher und zuverlässig eingesetzt werden. Im Einzelnen umfasst es in der Regel fünf bewährte Verfahren: Data Governance, Kommunikation mit Stakeholdern, Engagement und Zusammenarbeit auf Vorstandsebene, Einhaltung relevanter Vorschriften und Schritte zur externen Absicherung durch Audits Dritter.
All diesen Best Practices ist gemeinsam, dass sie Transparenz und Nachvollziehbarkeit in KI-Systemen voraussetzen, um diese zu ermöglichen und damit sicherzustellen, dass die Systeme für ihre Entscheidungen zur Rechenschaft gezogen werden können.
Verantwortungsvolle KI signalisiert einen Kulturwandel in der Tech-Industrie
Die Entwicklung hin zu einem vermehrten Einsatz verantwortungsvoller KI ist auch ein Zeichen für einen umfassenderen kulturellen Wandel in der Technologiebranche und anderen Industriezweigen. Das Vertrauen der Verbraucherinnen und Verbraucher ist auf einem historischen Tiefstand, nur 30 % halten Unternehmen für vertrauenswürdig. Dies spiegelt sich auch im Vertrauen in KI wider: Laut einer Umfrage sind nur 28 % der Befragten bereit, KI-Systemen zu vertrauen.
Das grundlegende Ziel vieler Unternehmen ist es daher, das Vertrauen ihrer Kundinnen und Kunden sowie ihrer Stakeholder zu gewinnen. Durch eine freiwillige Selbstverpflichtung zu verantwortungsvollen KI-Praktiken können Unternehmen ethische Standards demonstrieren.
Die Regulierung spiegelt die Ziele verantwortungsvoller KI wider
Im Mittelpunkt des öffentlichen Bewusstseins standen in 2022 vor allem generative KI-Tools wie ChatGPT von OpenAI, deren Potenzial die Vorstellungskraft der Menschen beflügelte, aber fast zeitgleich zu Kontroversen über die ethische Nutzung dieser Tools führte.
Weniger beachtet wurde die Flut von KI-Regulierungen: Der im Dezember verabschiedete allgemeine Ansatz für den KI-Gesetzesentwurf der EU, die Veröffentlichung der KI Bill of Rights in den USA im Oktober, das britische KI-Regulierungspapier im Juli und die Durchsetzung der chinesischen Vorschriften für den Umgang mit algorithmischen Empfehlungen im März haben einen starken Präzedenzfall für das geschaffen, was noch kommen wird.
In diesem Jahr wird der Grundstein für das Inkrafttreten der KI-Gesetzgebung der EU für die nächsten zwei Jahre gelegt, was die Einrichtung von Risikomanagement-Rahmenwerken erforderlich machen wird. Die USA werden sich darauf konzentrieren, wie Regulierungsbehörden und Gerichte gegen Unternehmen vorgehen können, die algorithmische Diskriminierung verbreiten oder absichtlich falsche Daten und dunkle Muster verwenden.
Der rote Faden, der sich durch alle vorgeschlagenen Rechtsvorschriften zieht, ist die Betonung von Transparenz und Nachvollziehbarkeit, häufig in Form von Versicherungen durch Dritte. Im Wesentlichen geht es um verantwortungsvolle KI-Praktiken.
Die Unternehmen stehen vor der Wahl
Der Trend in der KI-Regulierungslandschaft, verantwortungsvolle KI zu einer gesetzlichen Anforderung zu machen, lässt den Unternehmen die Wahl, ob sie verantwortungsvolle KI-Praktiken bei der Verwaltung ihrer KI-Systeme präventiv einführen oder warten, bis sie durch neue Vorschriften dazu gezwungen werden.
Neben den bereits erwähnten Vorteilen für das Vertrauen und die Förderung eines ethischen Rufs, kann verantwortungsvolle KI auch geschäftliche Vorteile mit sich bringen: Erstens ermöglicht sie eine Bestandsaufnahme aller automatisierten Systeme, die in einem Unternehmen eingesetzt werden und zweitens können rechtliche Schritte gegen Unternehmen vermieden werden, denen Fahrlässigkeit oder böswillige Absicht bei der Anwendung eines automatisierten Systems vorgeworfen wird.
Ein Beispiel dafür ist die Apple Card, die einem Mann ein viel höheres Kreditlimit eingeräumt haben soll als seiner Frau, obwohl diese über eine bessere Kreditwürdigkeit verfügte. Goldman Sachs, der Anbieter der Karte, konnte jedoch begründen, warum das Modell zu dieser Entscheidung gekommen war, da das Unternehmen intern einen "Responsible AI"-Ansatz verfolgt und so in der Lage war, die KI-Entscheidung transparent zu machen. Das Unternehmen wurde von illegalen Aktivitäten freigesprochen.