Nach ungewollten Imitationen hat OpenAI seine Richtlinien für den KI-Videogenerator Sora 2 überarbeitet. Die Schauspielergewerkschaft SAG-AFTRA spricht von einem Etappensieg.
OpenAI, die Schauspielergewerkschaft SAG-AFTRA und Schauspieler Bryan Cranston haben neue Schutzmaßnahmen für die Nutzung von Stimme und Aussehen in Sora 2 vereinbart. Hintergrund ist ein Vorfall, bei dem Cranstons Stimme und Erscheinungsbild ohne Zustimmung in Sora-Videos auftauchten – trotz OpenAIs offizieller Opt-in-Politik.
"Ich war zutiefst besorgt, nicht nur für mich, sondern für alle Künstler, deren Identität auf diese Weise missbraucht werden kann", erklärte Cranston. Er hatte den Vorfall seiner Gewerkschaft gemeldet.
OpenAI sprach von einem "unbeabsichtigten Fehler" und hat laut SAG-AFTRA die Schutzmaßnahmen („Guardrails“) inzwischen verschärft. Die Opt-in-Politik soll ein dauerhaftes Prinzip bleiben und allen Betroffenen volle Kontrolle über ihre digitale Repräsentation sichern. Beschwerden sollen zügig bearbeitet werden.
OpenAI habe korrekt reagiert, so Cranston, betont jedoch, dass die Kontrolle über Stimme und Aussehen ein grundlegendes Recht aller Künstler sei.
Die Maßnahme ist Teil einer gemeinsamen Erklärung, die neben SAG-AFTRA, OpenAI und Cranston auch die United Talent Agency, die Creative Artists Agency und die Association of Talent Agents (ATA) unterzeichnet haben. Alle Beteiligten unterstützen den NO FAKES Act – ein noch nicht verabschiedetes US-Bundesgesetz, das unautorisierte digitale Reproduktionen von Stimme und Aussehen verbieten soll.
Bryan Cranston sprach sich bereits 2023 öffentlich gegen den Einsatz von KI in der Filmbranche aus. Er forderte Respekt für das Recht der Schauspieler auf Arbeit und Würde und sprach sich entschieden gegen die Ersetzung menschlicher Arbeit durch KI aus.
Die Rückkehr des „Move fast and break things“-Mantras
Die Einigung dürfte auch eine Reaktion auf den öffentlichen Druck sein, der sich seit dem Launch Anfang Oktober gegen OpenAI und Sora 2 richtet. Der Videogenerator geriet wiederholt in die Kritik, weil er prominente Persönlichkeiten oder urheberrechtlich geschützte Inhalte wie ganze "South Park"-Episoden ohne Erlaubnis imitierte.
Als Reaktion hat OpenAI, das dieses Risiko zugunsten des Launch-Hyps in Kauf nahm, nach massiver Kritik Einschränkungen eingeführt. Eine Beteiligung der Rechteinhaber an den Einnahmen wurde angekündigt, konkrete Details dazu fehlen bislang.
Vor kurzem zeigte zudem eine Untersuchung von NewsGuard, wie Sora 2 täuschend echte Falschinformationen in Videoform erzeugt – oft in wenigen Minuten und mit minimalem Aufwand. Bemerkenswert ist, dass ausgerechnet OpenAI, das einst das Textmodell GPT-2 aus Sorge vor Fake News zurückhielt, nun mit Sora ein Videomodell anbietet, das laut NewsGuard gezielt für Desinformation genutzt werden kann.