Inhalt
summary Zusammenfassung

Die US-Wahlen 2024 stehen an. KI wird nachgesagt, eine Rolle spielen zu können - speziell im Kontext von Missbrauch. OpenAI wappnet sich, speziell mit Blick die Bild-KI DALL-E 3.

Anzeige

OpenAI möchte den möglichen Missbrauch seiner KI-Tools vorwiegend angesichts der nahenden US-Wahlen verhindern. Dazu zählen laut Blogbeitrag irreführende "Deepfakes", großangelegte Einflussoperationen und Chatbots, die Kandidat:innen imitieren.

Das Unternehmen hat jetzt verschiedene Sicherheitsmaßnahmen angekündigt und seine Nutzungsrichtlinien für ChatGPT und die API überarbeitet, um die Missbrauchsgefahr zu reduzieren.

Ab Anfang 2024 sollen Bilder aus DALL-E 3 mit einem unsichtbaren Wasserzeichen aus dem C2PA-Standard versehen werden. Dieser soll die Herkunftsinformationen robust verschlüsseln und somit verlässlich verraten, ob ein Bild mit OpenAI-Technik generiert wurde.

Anzeige
Anzeige

Der Standard wird von der Content Authenticity Initiative (CAI) angetrieben, zu dem KI-Konkurrenten wie Adobe, aber auch Kamera-Hersteller wie Sony, Canon und Leica gehören. Google hat mit Synth ID im vergangenen Jahr eine eigene Lösung für das gleiche Problem vorgestellt.

Zudem experimentiert OpenAI mit einem Provenance Classifier, einem neuen Tool zur Erkennung von DALL-E-generierten Bildern. Das zeige in internen Testläufen schon vielversprechende Ergebnisse.

Zunächst soll das Tool Journalistinnen und Journalisten, Plattformen und Forscherinnen und Forschern zur Verfügung gestellt werden, um Feedback zu erhalten. Dieses vorsichtige Vorgehen ist sicherlich auch durch die Erfahrungen mit einem ähnlichen Tool zur Textklassifizierung inspiriert. Dieses musste im Juli 2023 nach kurzer Zeit wegen mangelnder Zuverlässigkeit wieder eingestellt werden.

Schließlich soll ChatGPT stärker mit Echtzeit-Nachrichtenberichterstattung verknüpft werden, einschließlich Quellenangaben und Links. Diese Transparenz soll den Wähler:innen helfen, Informationen zu bewerten und zu entscheiden, wem sie vertrauen können. Die Neuerung sei aber auch als Versuch zu verstehen, Traffic zu den Medien zurückzuleiten. Erste Deals hat OpenAI unter anderem mit Axel Springer und Associated Press abgeschlossen.

Politische Arbeit mit ChatGPT verboten

OpenAI passt die Richtlinien für die Nutzung von ChatGPT regelmäßig an und stellt die spezifischen Einschränkungen für die politische Kommunikation im Blog-Eintrag klar. So erlaubt OpenAI keine Nutzung für politische Kampagnen und Lobbyarbeit.

Empfehlung

Das gilt jedoch nur so lange, bis mehr über die Fähigkeiten zur "persönlichen Überzeugung" herausgefunden wurde. In der Vergangenheit gab es bereits mehrere Fälle, in denen mutmaßlich KI-generierte Bilder zu Propagandazwecken eingesetzt wurden.

Ausdrücklich verboten sind Chatbots, die sich als reale Personen wie Kandidaten oder Institutionen ausgeben. Darüber hinaus verbietet OpenAI Anwendungen seiner Technologien, die "Menschen davon abhalten, an demokratischen Prozessen teilzunehmen". Durch den kürzlich eingeführten GPT Store können Nutzer:innen kostenlos auf Chatbots von Dritten zugreifen. Sollten sie auf unzulässige Inhalte stoßen, können sie diese über einen neuen Button melden.

In den USA wird ChatGPT in Zusammenarbeit mit der National Association of Secretaries of State (NASS) die Nutzer:innen bei bestimmten wahlbezogenen Fragen auf die Informationsseite CanIVote.org weiterleiten. Die Erfahrungen aus dieser Zusammenarbeit werden das Vorgehen von OpenAI in anderen Ländern und Regionen beeinflussen.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • OpenAI hat neue Sicherheitsmaßnahmen und überarbeitete Nutzungsrichtlinien für ChatGPT vorgestellt, um Missbrauch zu verhindern, insbesondere im Kontext der US-Wahlen.
  • Demnächst sollen Bilder aus DALL-E 3 mit einem verschlüsselten Wasserzeichen versehen werden, um Herkunftsinformationen zu klären. Darüber hinaus experimentiert OpenAI mit einem Provenance Classifier zur Erkennung von DALL-E generierten Bildern.
  • Die Nutzung von ChatGPT für politische Kampagnen, Lobbying und die Vortäuschung von Chatbots als reale Personen ist untersagt.
Quellen
Jonathan ist Technikjournalist und beschäftigt sich stark mit Consumer Electronics. Er erklärt seinen Mitmenschen, wie KI bereits heute nutzbar ist und wie sie im Alltag unterstützen kann.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!