KI und Gesellschaft

OpenAIs "Collective Alignment"-Team soll Künstliche Intelligenz demokratischer machen

Matthias Bastian
The image depicts a busy pedestrian crossing, where numerous people are walking in different directions. The photo appears to be taken from an elevated or aerial perspective, giving a top-down view of the scene. The crossing is marked by white stripes on the road, and the individuals are casting shadows, suggesting the time of day could be when the sun is at an angle, either morning or afternoon. The people are dressed in various colors, but muted tones predominate, with occasional bright colors like red and orange standing out. The image has a somewhat blurred or painted quality to it, possibly due to digital manipulation, creating an effect that is more artistic than a straightforward photograph

Midjourney prompted by THE DECODER

Ein neues Team bei OpenAI soll dafür sorgen, dass die Vielfalt der Perspektiven und Kulturen in den KI-Modellen besser repräsentiert wird.

Dazu soll das neue "Collective Alignment"-Team Feedback und Daten aus der Öffentlichkeit berücksichtigen. Das Team aus Wissenschaftlern und Ingenieuren hat die Aufgabe, ein System zu entwickeln, das Feedback aus der Öffentlichkeit sammelt und in die Systeme von OpenAI einfließen lässt. Zu diesem Zweck wird es mit externen Beratern und Förderteams zusammenarbeiten, Pilotprojekte starten und Prototypen entwickeln.

Die Führungsriege von OpenAI hat bereits in der Vergangenheit betont, dass die Grenzen und Ziele von KI-Systemen demokratisch festgelegt werden müssen. Bislang ist das nur eingeschränkt möglich, da insbesondere ChatGPT stark von den Leitlinien und politischen Überzeugungen von OpenAI geprägt ist. Studien zeigen, dass der Chatbot eher linksliberal einzuordnen ist.

Erste Pilotprojekte zur Demokratisierung von KI

Das OpenAI-Förderprogramm "Democratic Inputs to AI" zielt darauf ab, die Öffentlichkeit an Entscheidungen über das Verhalten von KI zu beteiligen, um die Modelle mit menschlichen Werten in Einklang zu bringen.

Seit Mai 2023 hat OpenAI jeweils 100.000 Dollar an zehn Teams aus der ganzen Welt vergeben, um Ideen und Werkzeuge für die kollektive Kontrolle von KI-Systemen zu entwickeln.

Die ersten Pilotprojekte konzentrieren sich auf verschiedene Aspekte des partizipativen Engagements, darunter neuartige Video-Debatten-Schnittstellen, die Überprüfung von KI-Modellen durch die Öffentlichkeit und die mathematische Formulierung von Repräsentationsgarantien.

OpenAI fasst die wichtigsten Erkenntnisse aus dem Programm wie folgt zusammen:

Die öffentliche Meinung kann sich häufig ändern

Viele Teams stellten fest, dass sich die öffentliche Meinung häufig ändert, was sich auf die Häufigkeit der Prozesse zur Sammlung von Beiträgen auswirken kann.

Die Überbrückung der digitalen Kluft ist immer noch schwierig

Die Rekrutierung von Teilnehmern über die digitale und kulturelle Kluft hinweg könnte zusätzliche Investitionen in bessere Öffentlichkeitsarbeit und Instrumente erfordern.

Einigung zwischen polarisierten Gruppen

Es kann schwierig sein, einen Kompromiss zu finden, wenn eine kleine Gruppe starke Meinungen zu einem bestimmten Thema hat.

Konsens erreichen versus Vielfalt repräsentieren

Der Versuch, ein einheitliches Ergebnis oder eine einheitliche Entscheidung zu erzielen, um eine Gruppe zu repräsentieren, kann zu Spannungen zwischen dem Streben nach Konsens und der angemessenen Repräsentation unterschiedlicher Meinungen führen.

Hoffnungen und Befürchtungen in Bezug auf die Zukunft der KI-Governance

Einige Teilnehmer äußerten Bedenken hinsichtlich des Einsatzes von KI in der Politik und forderten Transparenz darüber, wann und wie KI in demokratischen Prozessen eingesetzt wird.

Übersicht und Beschreibung der Pilotprojekte sind auf der Webseite von OpenAI verfügbar. Die Firma stellte zudem neue Sicherheitsregeln vor, die der Manipulation demokratischer Wahlen durch KI entgegenwirken sollen.

Quellen: