Inhalt
summary Zusammenfassung
DEEP MINDS Podcast
Podcast über Künstliche Intelligenz und Wissenschaft
DEEP MINDS #12: Künstliche Intelligenz regulieren

Eric Joel Horvitz ist Informatiker und Direktor des Microsoft Research Lab in Redmond. In einem neuen Forschungspapier beschreibt er zwei neue Deepfake-Methoden und ihre weitreichenden Risiken.

Im Forschungspapier „On the Horizon: Interactive and Compositional Deepfakes“ beschreibt Horvitz zwei neue Deepfake-Methoden, die er in Zukunft technisch für möglich hält und „von denen wir erwarten können, dass sie in der Praxis kostspielige Auswirkungen auf die Gesellschaft haben werden.“

Interaktive und kompositorische Deepfakes

Als „interaktiven Deepfake“ klassifiziert Horvitz multimodale Deepfake-Klone realer Personen, die etwa in Video-Calls nicht mehr von der realen Person unterscheidbar sind. Bisherige Deepfake-Systeme beschränken sich meist auf den Austausch des Gesichts – und selbst dieses bietet nur eine begrenzte Interaktion. Die Illusion zerfällt etwa bei stärkeren Kopfdrehungen oder einer ausdrucksstarken Mimik.

Bild: Horvitz

Für interaktive Deepfakes sieht Horvitz den Einsatz einer Reihe an KI-Techniken für synthetische Nachbildungen von Posen, Mimik, Gesten, Sprache und der Fernsteuerung durch eine reale Person im Stil eines Puppenspielers („neural puppetry“).

Anzeige
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung

Der „kompositorische Deepfake“ ist laut Horvitz die Zusammenstellung einer Reihe von Deepfakes, die im Zusammenspiel eine größere Geschichte erfinden, etwa einen Terroranschlag oder einen Skandal, der nie stattgefunden hat.

Bild: Horvitz

Diese Deepfakes könnten zudem mit realen Geschehnissen verwoben werden, um systematisch „synthetische Historien“, also Geschichtsverfälschung, etwa in Untergruppen der Bevölkerung zu etablieren. Horvitz bezeichnet diese Systeme als „kontradiktorische Erklärungssysteme“, die rückwirkend und zukunftsgewandt ein gemeinschaftliches Verständnis des Weltgeschehens attackieren.

Bild: Horvitz

Interdisziplinär wehren – so gut es geht

„Ohne Gegenmaßnahmen droht durch interaktive und kompositorische Deepfakes eine post-epistemische Welt, in der Fakt nicht mehr von Fiktion unterschieden werden kann“, schreibt Horvitz.

Als mögliche Gegenmaßnahmen beschreibt der Forscher gängige Überlegungen und Systeme, etwa die Aufklärung der Öffentlichkeit über Deepfake-Risiken, die Regulierung der Technologie, eine automatisierte Deepfake-Erkennung und kryptografische Nachweise, etwa durch digitale Wasserzeichen.

Horvitz fordert zudem „disziplinübergreifende Überlegungen“, wie KI-Fortschritte für das Allgemeinwohl und für böswillige Zwecke genutzt werden könnten, um kommende Entwicklungen möglichst genau zu antizipieren.

Empfehlung

„Während wir an der Grenze der technologischen Möglichkeiten voranschreiten, müssen wir uns weiterhin über den möglichen Missbrauch der von uns geschaffenen Technologien Gedanken machen und an der Entwicklung von Gefahrenmodellen, Kontrollen und Sicherheitsvorkehrungen arbeiten – und wir müssen uns in allen Sektoren mit wachsenden Bedenken, akzeptablen Verwendungsmöglichkeiten, bewährten Praktiken, Abhilfemaßnahmen und Vorschriften befassen.“

Anzeige
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Eric Joel Horvitz, Direktor des Microsoft Research Lab, beschreibt in einem aktuellen Aufsatz zwei neue Deepfake-Risiken.
  • Multimodale interaktive Deepfakes sind vollständige digitale Klone echter Menschen, die im Stil eines Puppenspielers ferngesteuert werden können. Kompositorische Deepfakes beschreiben die Zusammenführung verschiedener Deepfakes für die Erzählung einer größeren Fake-Story.
  • Aus diesen Deepfake-Methoden könnten "kontradiktorische Erklärungssysteme" entstehen, die durch synthetisch generierte Historie in gesellschaftlichen Untergruppen ein gemeinschaftliches Verständnis des Weltgeschehens attackieren.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!