Die US-Schauspielerin Scarlett Johansson scheint den Kampf gegen KI-Fakes schon aufgegeben zu haben, bevor er begonnen hat.
Als Ende 2017 die Pornofälscher rund um Deepfakes damit begannen, Pornos und Prominente durch neuronale Netze zu jagen und zu vermischen, gehörte Scarlett Johansson zu den ersten Opfern.
Mittels KI-Technik war es einzelnen Personen ohne aufwendige Videobearbeitung möglich, Johanssons Kopf auf die Schultern von Pornodarstellerinnen zu setzen. Die Besonderheit ist die hohe Qualität der Fälschungen bis auf Hollywood-Niveau, die mit vergleichsweise geringem Aufwand erreicht werden kann.
Die gefälschten Promi-Pornos waren zum Teil so gut, dass sie nur bei genauerem Hinsehen als Fakes entlarvt werden konnten. Auf gängigen Videoportalen wurden sie als "echtes Material" vertrieben und millionenfach angeklickt.
Johansson macht sich keine großen Hoffnungen
Mit der Washington Post spricht Johansson erstmals über die Fake-Pornos. Sie fühle sich nicht direkt betroffen, da Zuschauer ohnehin von einer Fälschung ausgingen, sobald ihr Gesicht in einem Porno auftauche.
Die Fälscher rechtlich zu verfolgen, sei ein sinnloses Unterfangen, da das Internet "ein riesiges Wurmloch der Dunkelheit ist, das sich selbst frisst". Im Dark Net existierten weitaus verstörendere Inhalte.
Johansson zeigt sich desillusioniert: "Tatsache ist, dass der Versuch, sich vor dem Internet und seiner Verderbtheit zu schützen, im Grunde genommen eine verlorene Sache ist."
Letztlich liege es an den einzelnen Personen, auf das Recht am eigenen Bild zu pochen und Schadensersatz zu fordern. Eine komplexe und langwierige Angelegenheit aufgrund der international unterschiedlichen Rechtsprechung. Johansson machte diese Erfahrung, nachdem ein Hacker 2011 Nacktbilder von ihr stahl und im Internet verbreitete.
KI vs. KI
Gut möglich, dass Johansson mit ihrer düsteren Prognose recht behält. Dennoch gibt es zahlreiche Forscher und Unternehmen, die ebenfalls KI-gestützte Methoden entwickeln, mit denen authentische Videos und Fotos von manipuliertem Material unterschieden werden können: beispielsweise anhand des Lidschlags oder mit speziellen Apps, die Inhalte direkt nach der Erstellung verifizieren.
Allerdings enden diese Versuche voraussichtlich über kurz oder lang in dem gleichen aus der Netzsicherheit bekannten Katz-und-Maus-Spiel: Sobald eine wirksame Methode gefunden wurde, um KI-Manipulation aufzuspüren, verbessern die Fälscher entsprechend ihr Vorgehen.
US-Abgeordnete machten den Kampf gegen Deepfakes und Co. kürzlich zur Frage der nationalen Sicherheit: In einem offenen Brief forderten sie vom US-Geheimdienst ein Gegenmittel gegen KI-Fälschungen. Ohne dieses befürchten sie "Erpressung und Fehlinformation".
Titelbild: Gage Skidmore bei Flickr. Titel: Scarlett Johansson. Lizenziert nach CC BY-SA 2.0.