Ein Enthüllungsjournalist erhält ein Video von einem anonymen Whistleblower. Es zeigt einen Präsidentschaftskandidaten, der illegale Aktivitäten zugibt. Ist dieses Video echt?
Wenn ja, wäre es eine Riesennachricht - der Knüller seines Lebens - und könnte die bevorstehenden Wahlen völlig umkrempeln. Aber der Journalist lässt das Video durch ein spezielles Tool laufen, das ihm sagt, dass das Video nicht das ist, was es zu sein scheint. Tatsächlich handelt es sich um einen Deepfake, ein Video, das mit Künstlicher Intelligenz (Infos) und Deep Learning erstellt wurde.
Journalisten auf der ganzen Welt könnten bald ein solches Tool verwenden. In ein paar Jahren könnte es sogar von jedermann genutzt werden, um gefälschte Inhalte in den eigenen Social-Media-Feeds aufzuspüren.
Als Forscher, die sich mit der Deepfake-Entdeckung befassen und ein Werkzeug für Journalisten entwickelt haben, sehen wir eine Zukunft für diese Werkzeuge. Sie werden jedoch nicht alle unsere Probleme lösen, und sie werden nur ein Teil des Arsenals im breiteren Kampf gegen Desinformation sein.
Das Problem mit Deepfakes
Die meisten Menschen wissen, dass man nicht alles glauben darf, was man sieht. In den letzten Jahrzehnten haben sich versierte Nachrichtenkonsumenten daran gewöhnt, Fotos zu sehen, die mit Bildbearbeitungssoftware verändert wurden.
Videos sind jedoch eine andere Geschichte. Hollywood-Regisseure können Millionen US-Dollar für Spezialeffekte ausgeben, um eine realistische Szene am Computer zu gestalten. Aber mit Hilfe von Deepfakes könnten Amateure mit ein einigen tausend US-Dollar Computerausrüstung und ein paar Wochen Zeit einen ähnlich realistischen Effekt erzielen.
Mit Deepfakes ist es möglich, Menschen in Filmszenen zu versetzen, in denen sie nie waren - man denke nur an Tom Cruise, der Iron Man spielt - was unterhaltsame Videos ermöglicht. Leider ist es mit Deepfakes auch möglich, Pornografie ohne die Zustimmung der abgebildeten Personen zu erstellen. Bis jetzt sind diese Menschen, fast alle sind Frauen, die Hauptopfer, wenn Deepfake-Technologie missbraucht wird.
Deepfakes können auch dazu verwendet werden, Videos von politischen Führern zu erstellen, die Dinge sagen, die sie nie gesagt haben. Die Sozialistische Partei Belgiens veröffentlichte ein minderwertiges Video von Präsident Trump, in dem er Belgien beleidigte. Das Video war kein Deepfake, aber gefälscht.
Am erschreckendsten ist vermutlich, dass Deepfakes dazu benutzt werden können, Zweifel am Inhalt echter Videos zu wecken, indem sie suggerieren, dass es sich um Deepfakes handeln könnte.
Angesichts dieser Risiken wäre es äußerst wertvoll, Deepfakes verlässlich erkennen und eindeutig kennzeichnen zu können. Dies würde sicherstellen, dass gefälschte Videos die Öffentlichkeit nicht täuschen und dass echte Videos als authentisch wahrgenommen werden können.
Deepfakes erkennen
Vor etwas mehr als drei Jahren startete die Deepfake-Erkennung als Forschungsgebiet. Die frühen Arbeiten konzentrierten sich auf die Erkennung sichtbarer Probleme in den Videos, wie zum Beispiel Deepfakes, in denen die Personen nicht blinzeln. Mit der Zeit wurden die Fälschungen jedoch besser darin, echte Videos nachzuahmen, und sind sowohl für Menschen als auch für Erkennungswerkzeuge schwerer zu identifizieren.
Es gibt zwei Hauptkategorien der Deepfake-Erkennungsforschung. Die erste umfasst die Untersuchung des Verhaltens der Personen in den Videos. Angenommen, man hat viele Videos von jemandem, der berühmt ist, wie zum Beispiel Präsident Obama: Eine Künstliche Intelligenz kann anhand der Videos seine Verhaltensmuster lernen, von seinen Handgesten bis hin zu seinen Sprechpausen.
Sie kann anschließend ebenfalls Deepfakes von ihm ansehen und feststellen, wo diese nicht zu den zuvor gelernten Mustern passen. Dieser Ansatz hat den Vorteil, dass er möglicherweise auch dann funktioniert, wenn die Videoqualität des Deepfakes selbst im Wesentlichen perfekt ist.
Andere Forscher, darunter auch unser Team, haben sich auf Unterschiede konzentriert, die alle Deepfakes im Vergleich zu echten Videos aufweisen. Deepfake-Videos werden oft durch das Zusammenfügen einzeln generierter Frames zu Videos erstellt.
Unter Berücksichtigung dieser Tatsache extrahieren die Methoden unseres Teams die wesentlichen Daten aus den Gesichtern in den einzelnen Frames eines Videos und verfolgen sie dann durch Gruppen zeitgleicher Frames. Auf diese Weise können wir Inkonsistenzen im Informationsfluss von einem Frame zum anderen erkennen. Einen ähnlichen Ansatz verwenden wir auch für unser Fake-Audio-Erkennungssystem.
Diese subtilen Details sind für Menschen schwer zu erkennen, zeigen aber, dass Deepfakes noch nicht ganz perfekt sind. Detektoren wie diese können von jeder Person eingesetzt werden, nicht nur von einigen wenigen führenden Köpfen der Welt. Es ist möglich, dass letztlich beide Arten von Deepfake-Detektoren benötigt werden.
Neuere Detektionssysteme funktionieren sehr gut mit Videos, die speziell für die Tests der Systeme gesammelt wurden. Leider schneiden die Modelle schlecht ab bei Online-Videos. Die Verbesserung dieser Tools, damit sie robuster und nützlicher werden, ist der entscheidende nächste Schritt.
Wer sollte Deepfake-Detektoren verwenden?
Idealerweise sollte ein Deepfake-Überprüfungswerkzeug für jedermann verfügbar sein. Diese Technologie befindet sich jedoch noch im Anfangsstadium der Entwicklung. Forscher müssen die Werkzeuge verbessern und vor Hackern schützen, bevor sie auf breiter Basis veröffentlicht werden.
Gleichzeitig stehen aber die Werkzeuge zur Herstellung von Deepfakes jedem zur Verfügung, der die Öffentlichkeit täuschen will. Nur zuzuschauen, ist daher keine Option. Für unser Team war es die richtige Entscheidung, mit Journalisten zu arbeiten, denn sie sind die erste Verteidigungslinie gegen die Verbreitung von Falschinformationen.
Bevor sie Geschichten veröffentlichen, müssen Journalistinnen und Journalisten Informationen überprüfen. Sie verfügen bereits über erprobte und bewährte Methoden, wie die Überprüfung von Quellen und das Hinzuziehen von mehr als einer Person, um wichtige Fakten zu verifizieren.
Wenn wir ihnen also unser Werkzeug an die Hand geben, wissen wir, dass sie sich nicht allein auf die Technologie verlassen werden, da sie Fehler machen kann. Gleichzeitig haben sie dennoch mehr Informationen zur Verfügung.
Können Deepfake-Detektoren das Wettrüsten gewinnen?
Es ist erfreulich, dass unter anderem Teams von Facebook und Microsoft in Technologie investieren, um Deepfakes zu verstehen und aufzudecken. Auf diesem Gebiet ist mehr Forschung nötig, um mit der Geschwindigkeit der Fortschritte in der Deepfake-Technologie Schritt zu halten.
Journalisten und die Social-Media-Plattformen müssen auch herausfinden, wie man Menschen am besten vor Deepfakes warnen kann, wenn sie aufgedeckt werden. Die Forschung hat gezeigt, dass sich die Menschen an eine Lüge erinnern, aber nicht an die Tatsache, dass es eine Lüge war. Gilt das auch für gefälschte Videos? Einfach nur "Deepfake" in den Titel zu schreiben, könnte nicht ausreichen, um einigen Arten der Desinformation entgegenzuwirken.
Deepfakes werden bleiben. Der Umgang mit Desinformation und der Schutz der Öffentlichkeit wird schwieriger denn je, da Künstliche Intelligenz immer leistungsfähiger wird. Wir sind Teil einer wachsenden Forschungsgemeinschaft, die sich dieser Bedrohung stellt, wobei die Aufdeckung nur der erste Schritt ist.
Autoren: John Sohrawardi, Doctoral Student in Computing and Informational Sciences, Rochester Institute of Technology and Matthew Wright, Professor of Computing Security, Rochester Institute of Technology
Dieser Artikel wurde unter einer Creative Commons Lizenz nach Genehmigung übersetzt und erneut publiziert. Das Original (lesen) erschien bei The Conversation.