Dank ChatGPT, Midjourney und Co. tauchen immer mehr KI-generierte Inhalte im Netz auf. Ihre maschinelle Herkunft bleibt meist verborgen. Eine EU-Kommissarin fordert deshalb eine Kennzeichnung.
Věra Jourová ist Vice-President für Werte und Transparenz in der EU-Kommission und mitverantwortlich für die Entwicklung eines Anti-Disinformationskodex, dessen Unterzeichnern sie jetzt "weitere Hausaufgaben" mitgab - darunter die Integration eines expliziten Absatzes zum Umgang mit generativer KI.
Google, Microsoft und Co. sollen KI-Content kennzeichnen
Laut Jourová sollten generative KI-Dienste wie ChatGPT und Google Bard nicht von böswilligen Akteuren zur Erzeugung von Desinformation missbraucht werden können. Die Anbieter solcher Dienste müssten entsprechende Sicherheitsvorkehrungen treffen.
KI-generierte Inhalte müssten zudem eine "eindeutige Kennzeichnung" erhalten, um für die Nutzerinnen und Nutzer identifizierbar zu sein. "Die Meinungsfreiheit gehört den Menschen, nicht den Maschinen", schreibt Jourová bei Twitter.
4⃣ Generative AI, like ChatGPT. A dedicated track within the Code should address it.
Freedom of speech belongs to humans, not machines.
🔹these services cannot be used by malicious actors to generate disinformation
🔹such content must be recognized and clearly labelled to users. pic.twitter.com/u0fvz4Pzpk— Věra Jourová (@VeraJourova) June 5, 2023
"When it comes to AI production, I don't see any right for the machines to have freedom of speech.
Signatories of the EU Code of Practice against disinformation should put in place technology to recognise AI content and clearly label it to users."
— Vice-President @VeraJourova pic.twitter.com/yLVp79bqEH
— European Commission (@EU_Commission) June 5, 2023
Unternehmen wie Google, Microsoft oder Meta, die den EU-Verhaltenskodex gegen Desinformation unterzeichnet haben, sollen im Juli ihre Sicherheitspläne vorlegen. Twitter, das kürzlich den Verhaltenskodex aufgekündigt hat, werde "streng und unverzüglich" überprüft.
Die KI-Spam-Dystopie verhindern
Im Bereich der KI-generierten Bilder sorgte kürzlich ein vermeintliches Foto von Donald Trump für Aufsehen, das mit Midjourney gefälscht wurde und auf Twitter viral ging. Der Midjourney-Anbieter führte daraufhin ein neues, ebenfalls KI-gestütztes Moderationssystem ein. Allerdings gibt es ähnlich leistungsfähige Open-Source-Technologien, die ohne solche Sicherheitsvorkehrungen auskommen, auch wenn die Einstiegshürde hier (noch) höher ist als bei kommerziellen Produkten.
Noch anspruchsvoller dürfte die Kennzeichnung und Transparenz von KI-Text sein. Die Identifizierung von KI-Text allein anhand des geschriebenen Wortes ist umstritten. Entsprechende Detektoren wie der von OpenAI haben keine verlässlichen Erkennungsraten.
Zudem besteht die Gefahr, dass Texte, die nicht eindeutig als menschlich identifiziert werden, unter Generalverdacht gestellt werden, KI-generiert zu sein. Und ab wann gilt ein Text als KI-generiert - 100 Prozent Maschinenanteil, 51 Prozent oder reichen zehn Prozent?
OpenAI-Chef Sam Altman ist skeptisch, dass sich KI-Textdetektoren und Textmarker langfristig durchsetzen werden, auch wenn OpenAI an entsprechenden Lösungen arbeitet. Sie könnten für eine Übergangsphase nützlich sein, aber es sei unmöglich, perfekte Detektoren zu entwickeln.
Ein anderer Ansatz ist, statt des Inhalts den Absender als menschlich zu authentifizieren. Altman investiert deshalb in eine Firma, die Iris-Scans aufzeichnet und in der Blockchain speichert. Die Authentifizierung des Absenders würde auch den grundsätzlich legitimen Einsatz von KI als Medienwerkzeug aus der Kritik nehmen.