Ein neues interdisziplinäres Forschungspapier von Google Deepmind beleuchtet die möglichen weitreichenden Auswirkungen fortgeschrittener KI-Assistenten. Es skizziert Chancen, Risiken und Handlungsempfehlungen für Entwickler und politische Entscheidungsträger.
KI-Assistenten, die auf sogenannten "Foundation Models" basieren, könnten als kreative Partner, Forschungsanalytiker, Bildungstutoren oder Lebensplaner fungieren, bald zu einem festen Bestandteil unseres Alltags werden und die Art und Weise verändern, wie Menschen mit KI interagieren, schreibt das Forschungsteam.
Diese KI-Assistenten könnten Menschen dabei helfen, ein gutes Leben zu führen, indem sie relevante Informationen bereitstellen, Ziele zu formulieren helfen und Strategien zur Umsetzung dieser Ziele entwickeln.
Gleichzeitig bestehe jedoch das Risiko, dass die Systeme nicht im Interesse der Nutzer oder der Gesellschaft handeln, da sie möglicherweise falsche Annahmen über das menschliche Wohlergehen treffen oder die Interessen der Entwickler über die der Nutzer stellen.
Unter anderem sollen OpenAI und Google an solchen Assistenten arbeiten als nächste Ausbaustufe aktueller Chatbots.
KI sollte nicht vermenschlicht werden
Die Möglichkeit, mit KI-Assistenten in natürlicher Sprache zu kommunizieren, und ihre Tendenz, menschliches Verhalten nachzuahmen, bergen die Gefahr, dass Nutzer eine zu enge Bindung zu ihnen aufbauen. Das könnte zu Desorientierung und Autonomieverlust führen, so die Forschenden.
Umfassende Forschung zur Mensch-KI-Interaktion sei notwendig, um mögliche Schäden abzuschätzen und Schutzmaßnahmen zu entwickeln. Dazu gehören Beschränkungen für menschenähnliche Elemente und Vorkehrungen zum Schutz der Privatsphäre der Nutzer.
Die Beziehungen zwischen Menschen und KI-Assistenten sollten die Autonomie der Nutzer wahren und ihre Fähigkeit unterstützen, sich frei von emotionaler oder materieller Abhängigkeit zu entfalten.
Auf gesellschaftlicher Ebene könnten KI-Assistenten die wissenschaftliche Forschung beschleunigen und den Zugang zu hochwertigem Fachwissen demokratisieren. Sie könnten dazu beitragen, Fehlinformationen einzudämmen (generieren diese aber auch) und die Folgen des Klimawandels abzuschwächen.
Demgegenüber stehen Risiken wie Koordinationsprobleme zwischen KI-Assistenten mit negativen sozialen Folgen, der Verlust sozialer Bindungen durch den Ersatz menschlicher Interaktion und die Vertiefung technologischer Ungleichheiten.
Zudem sollten KI-Assistenten breit zugänglich sein und die Bedürfnisse verschiedener Nutzer und Nichtnutzer berücksichtigen. Andernfalls drohen Ausschlusseffekte.
An der Schwelle zu einer grundlegenden technologischen und sozialen Transformation
Da KI-Assistenten neue Fähigkeiten entwickeln und Werkzeuge auf neue Weise nutzen könnten, sei es schwierig, die mit ihrem Einsatz verbundenen Risiken vorherzusagen. Daher sollten umfassende Tests und Bewertungen entwickelt werden, die auch die Auswirkungen auf die Mensch-Computer-Interaktion und die Gesellschaft als Ganzes berücksichtigen.
Die Forschenden empfehlen, rasch zu handeln und die Entwicklung gesellschaftlich nützlicher KI-Assistenten voranzutreiben. Dazu gehöre auch ein öffentlicher Dialog über die ethischen und sozialen Auswirkungen der Technologie.
Robuste Kontrollen gegen Fehlinformationen sollten implementiert, Zugangsaspekte berücksichtigt und die Auswirkungen auf die Wirtschaft erforscht werden.
"Wir stehen am Anfang dieser Ära des technologischen und gesellschaftlichen Wandels. Wir haben die Chance, jetzt zu handeln - als Entwickler, Forscher, politische Entscheidungsträger und öffentliche Interessenvertreter - um die Art von KI-Assistenten zu gestalten, die wir in der Welt sehen wollen", schreibt das Forschungsteam.
Eine umfassende Darstellung der Chancen und Risiken gibt im Paper "The Ethics of Advanced AI Assistants."