Wähler in New Hampshire erhielten am Wochenende Telefonanrufe mit einer vermutlich KI-generierten Stimme. Die Stimme gab sich als US-Präsident Biden aus und forderte die Wähler auf, nicht zu den Vorwahlen zu gehen.
Die Stimme soll den Angerufenen gesagt haben, dass "Ihre Stimme im November einen Unterschied macht, nicht diesen Dienstag." Der Anruf wurde so manipuliert, dass er den Anschein erweckte, er sei von einem Mitglied des demokratischen Komitees verschickt worden.
Der Generalstaatsanwalt des Bundesstaates erklärte, die gefälschten Aufnahmen seien ein illegaler Versuch, die Vorwahlen zu stören und Wähler zu unterdrücken. Sie hat eine Untersuchung der Vorwürfe eingeleitet.
KI kommt in der politischen Propaganda an
Es scheint sich also allmählich zu bewahrheiten, wovor Forscher schon vor Jahren gewarnt haben. Inzwischen gibt es eine Reihe von dokumentierten Fällen, in denen KI für politische Propaganda eingesetzt wurde.
Die Risiken von Deepfakes in der Politik sind vielfältig. Sie können beispielsweise für die Generierung von Videos und Bildern, für das massenhafte Schreiben von manipulativen Texten oder, wie im obigen Beispiel, für die Generierung von glaubwürdigen Stimmenfälschungen eingesetzt werden.
Diese Entwicklung kann in Verbindung mit der zunehmenden audiovisuellen, schnellen und oberflächlichen Kommunikation in den sozialen Medien als gesellschaftliches Risiko angesehen werden.
Bereits bei den letzten US-Wahlen warnten Experten vor einer Flut von Deepfakes, die jedoch ausblieb. Möglicherweise waren die Experten damals nur eine Wahl zu früh: Inzwischen sind Deepfake-Techniken zugänglicher, billiger und besser.
Die deutsche Bundesregierung bezeichnete Deepfakes als eine potenzielle "große Gefahr für Gesellschaft und Politik". Es bestehe die Gefahr, dass sie zur Verbreitung von falschen Geständnissen oder Falschaussagen genutzt werden könnten. Gleichzeitig sollten die Gefahren von Deepfakes nicht überbewertet werden, da sie zu einem Vertrauensverlust der Bevölkerung in die Medien führen könnten, da generell allen Inhalten misstraut werde.
In Kalifornien sind Deepfakes seit 2019 strafbar, wenn sie dazu dienen, Politiker im Wahlkampf rufschädigend darzustellen. Plattformen wie Twitter und Facebook wurden aufgefordert, Maßnahmen gegen Deepfakes zu ergreifen und haben Richtlinien gegen Deepfakes und manipulierte Medien eingeführt. Außerdem arbeiten sie an Tools zur zuverlässigen Identifizierung von Deepfakes und erstellen spezielle Deepfake-Datenbanken, um Erkennungsalgorithmen zu trainieren.
Trotz dieser Maßnahmen bleibt die Frage offen, ob der Kampf gegen die immer besser werdenden Deepfakes mit technischen Mitteln gewonnen werden kann. Denn mit der Verbesserung der Erkennungstechnologie verbessert sich auch die Generierungstechnologie. Zudem könnte es einen Punkt geben, an dem Deepfakes dem Original einfach so ähnlich sind, dass sie auch technisch kaum noch unterscheidbar sind.
Mit zunehmender Nutzung wird es für die Anbieter von KI-Technologien obendrein immer schwieriger, deren Einsatz zu kontrollieren. So hat OpenAI, das detaillierte Maßnahmen gegen den Missbrauch seiner Technologie bei den US-Wahlen vorgestellt hat, kürzlich einen Chatbot für einen demokratischen Kandidaten gesperrt, der von einem externen Anbieter mit seiner Programmierschnittstelle erstellt worden war. Gleichzeitig wird der OpenAI-eigene GPT-Store mit Chatbots überschwemmt, die Donald Trump imitieren und seinen politischen Stil vertreten.