KI in der Praxis

OpenAI will KI-Wahlbeeinflussung mit neuen Sicherheitsmaßnahmen verhindern

Jonathan Kemper
KI-Illustration eines US-Politikers und einer Datenmatrix.

Midjourney prompted by THE DECODER

Die US-Wahlen 2024 stehen an. KI wird nachgesagt, eine Rolle spielen zu können - speziell im Kontext von Missbrauch. OpenAI wappnet sich, speziell mit Blick die Bild-KI DALL-E 3.

OpenAI möchte den möglichen Missbrauch seiner KI-Tools vorwiegend angesichts der nahenden US-Wahlen verhindern. Dazu zählen laut Blogbeitrag irreführende "Deepfakes", großangelegte Einflussoperationen und Chatbots, die Kandidat:innen imitieren.

Das Unternehmen hat jetzt verschiedene Sicherheitsmaßnahmen angekündigt und seine Nutzungsrichtlinien für ChatGPT und die API überarbeitet, um die Missbrauchsgefahr zu reduzieren.

Ab Anfang 2024 sollen Bilder aus DALL-E 3 mit einem unsichtbaren Wasserzeichen aus dem C2PA-Standard versehen werden. Dieser soll die Herkunftsinformationen robust verschlüsseln und somit verlässlich verraten, ob ein Bild mit OpenAI-Technik generiert wurde.

Der Standard wird von der Content Authenticity Initiative (CAI) angetrieben, zu dem KI-Konkurrenten wie Adobe, aber auch Kamera-Hersteller wie Sony, Canon und Leica gehören. Google hat mit Synth ID im vergangenen Jahr eine eigene Lösung für das gleiche Problem vorgestellt.

Zudem experimentiert OpenAI mit einem Provenance Classifier, einem neuen Tool zur Erkennung von DALL-E-generierten Bildern. Das zeige in internen Testläufen schon vielversprechende Ergebnisse.

Zunächst soll das Tool Journalistinnen und Journalisten, Plattformen und Forscherinnen und Forschern zur Verfügung gestellt werden, um Feedback zu erhalten. Dieses vorsichtige Vorgehen ist sicherlich auch durch die Erfahrungen mit einem ähnlichen Tool zur Textklassifizierung inspiriert. Dieses musste im Juli 2023 nach kurzer Zeit wegen mangelnder Zuverlässigkeit wieder eingestellt werden.

Schließlich soll ChatGPT stärker mit Echtzeit-Nachrichtenberichterstattung verknüpft werden, einschließlich Quellenangaben und Links. Diese Transparenz soll den Wähler:innen helfen, Informationen zu bewerten und zu entscheiden, wem sie vertrauen können. Die Neuerung sei aber auch als Versuch zu verstehen, Traffic zu den Medien zurückzuleiten. Erste Deals hat OpenAI unter anderem mit Axel Springer und Associated Press abgeschlossen.

Politische Arbeit mit ChatGPT verboten

OpenAI passt die Richtlinien für die Nutzung von ChatGPT regelmäßig an und stellt die spezifischen Einschränkungen für die politische Kommunikation im Blog-Eintrag klar. So erlaubt OpenAI keine Nutzung für politische Kampagnen und Lobbyarbeit.

Das gilt jedoch nur so lange, bis mehr über die Fähigkeiten zur "persönlichen Überzeugung" herausgefunden wurde. In der Vergangenheit gab es bereits mehrere Fälle, in denen mutmaßlich KI-generierte Bilder zu Propagandazwecken eingesetzt wurden.

Ausdrücklich verboten sind Chatbots, die sich als reale Personen wie Kandidaten oder Institutionen ausgeben. Darüber hinaus verbietet OpenAI Anwendungen seiner Technologien, die "Menschen davon abhalten, an demokratischen Prozessen teilzunehmen". Durch den kürzlich eingeführten GPT Store können Nutzer:innen kostenlos auf Chatbots von Dritten zugreifen. Sollten sie auf unzulässige Inhalte stoßen, können sie diese über einen neuen Button melden.

In den USA wird ChatGPT in Zusammenarbeit mit der National Association of Secretaries of State (NASS) die Nutzer:innen bei bestimmten wahlbezogenen Fragen auf die Informationsseite CanIVote.org weiterleiten. Die Erfahrungen aus dieser Zusammenarbeit werden das Vorgehen von OpenAI in anderen Ländern und Regionen beeinflussen.

Quellen: