Inhalt
summary Zusammenfassung

Während KI-Bildgeneratoren hauptsächlich für kreative Zwecke genutzt werden, öffnen sie auch die Türen für gefälschte Nacktfotos. Ein Experte möchte die Öffentlichkeit darüber aufklären.

Mit großer Macht kommt große Verantwortung - ein Satz, der auch auf KI-Bildgeneratoren zutrifft. Denn eng mit ihnen verknüpft sind Deepfakes, die wir an dieser Stelle als mit KI erzeugte synthetische visuelle Medien für ethisch fragwürdige oder kriminelle Zwecke definieren.

Die Geschichte der Deepfakes zeigt, dass öffentlichkeitswirksame KI-Bildgeneratoren in pornografischen Bildern und Videos ohne Zustimmung ihren Ursprung fanden. Gerade Prominente, zu denen viel Bildmaterial im Internet existiert, geraten ins Visier von Deepfake-Ersteller:innen.

Aber mit den neuesten Tools kann es jeden und jede erwischen - dafür reicht ein einzelnes Bild als Vorlage, wie der KI-Künstler Denis Shiryaev zeigt.

Anzeige
Anzeige

Entkleidung per KI-Befehl

Technologische Errungenschaften wie img2img ("Bild zu Bild") oder Inpainting, d. h. das Ersetzen bestimmter Bildinhalte durch eigenes Bildmaterial, machen es noch einfacher, Deepfakes zu erstellen. Deshalb müssen wir darüber sprechen, was Menschen mit schlechten Absichten mit der derzeit verfügbaren Technologie anstellen können.

Wer von Deepfakes hört, denkt wahrscheinlich zuerst an unterhaltsame Videos wie das der gefälschten Margot Robbie oder Tom Cruise auf TikTok oder an die mögliche Verbreitung von Fehlinformationen. Intim wird es, wenn Menschen virtuell entkleidet werden und ihre Unterwäsche durch realistisch aussehende Geschlechtsmerkmale ersetzt wird.

Beispiel von den Fähigkeiten von DeepNude von 2019. | Bild: DeepNude via Motherboard / The Verge

Eine Software namens DeepNude war dazu schon vor drei Jahren in der Lage. Das Programm machte Schlagzeilen und verbreitete sich schnell, wurde aufgrund heftiger Kritik jedoch ebenso schnell wieder eingestellt.

Die damalige Begründung der Betreiber: "Die Welt ist noch nicht bereit." Ob die Welt im Jahr 2022 bereit ist, sei mal dahingestellt, doch die Technik macht ungebremst Fortschritte.

Bild-KI-Anbieter verbieten NSFW-Inhalte, aber diese Verbote wirken nur eingeschränkt

Die Betreiber von DALL-E 2, Midjourney oder Stable Diffusion kennen die Risiken und ergreifen zumindest auf ihren eigenen Plattformen Vorsichtsmaßnahmen, etwa durch Wortfilter und dauerhafte Sperren bei wiederholten Verstößen gegen Inhalterichtlinen.

Empfehlung

"Keine Inhalte für Erwachsene oder blutige Szenen. Bitte vermeiden Sie visuell schockierende oder verstörende Inhalte. Wir werden einige Texteingaben automatisch blockieren", heißt es etwa in den Nutzungsbedingungen von Midjourney.

Auch Stability AI untersagt für seinen Stable Diffusion Web-Service DreamStudio die Generierung von "NSFW, anzüglichem oder sexuellem Material". Die Limitierungen des Open-Source-Modells lesen sich jedoch etwas anders: Verboten sind nur sexuelle Inhalte ohne Zustimmung der Personen, die diese Inhalte sehen könnten.

Die Einhaltung von Regeln für das Open-Source-Modell lässt sich zudem nicht kontrollieren. Ebenso wenig ist das bei anderen frei verfügbaren generativen Bild-KIs möglich, die nicht so mächtig sein müssen wie die bekannten Modelle, die aber gerade für spezifische Anwendungsfälle wie eben Nacktheit wohl mit überschaubarem Aufwand feinjustiert werden könnten. DeepNude gelang das bereits vor drei Jahren.

Shiryaev erwartet neuen DeepNude-Skandal

Denis Shiryaev, CEO des KI-Werkzeugkastens neural.love und als KI-Künstler bekannt für seine modernisierten Retro-Videos, wittert bei den Möglichkeiten von Stable Diffusion gar einen neuen "DeepNude-Skandal", sobald die Öffentlichkeit herausfinde, wie leicht es sei, ein Foto mit Bekleidung in ein Nacktfoto umzuwandeln.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Er demonstriert KI-generierte Nacktheit am Beispiel von Stable Diffusion. Dafür nimmt er einen Verstoß gegen die Richtlinien des Open-Source-Modells in Kauf.

Der KI-Künstler Denis Shiryaev verstieß für einen Test gegen die Richtlinien von Stable Diffusion, um ein Nacktbild per Inpainting zu fingieren. Das funktionierte laut Shiryaev sehr einfach. | Bild: Denis Shiryaev via Twitter

Die heutige Software sei zudem deutlich einfacher zu benutzen als das GAN-basierte DeepNude damals. Prinzipiell ist also jede Person gefährdet, von der auch nur ein Foto im Internet oder auf einer Festplatte verfügbar ist, durch gefälschte Nacktfotos verleumdet zu werden.

"Ich glaube, es ist besser, die breite Masse an Menschen (außerhalb der KI-Industrie) darauf vorzubereiten, dass nicht mehr alles, was sie auf Fotos sehen, echt ist", schreibt Shiryaev auf Twitter.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • 2019 machte eine KI-basierte App die Runde, die bekleidete Personen entkleiden konnte. Die Kleidung wurde durch fantasierte nackte Körperteile ersetzt.
  • Der KI-Künstler Denis Shiryaev zeigt jetzt, dass dieses Vorgehen mit heutigen KI-Bildgeneratoren noch leichter ist.
  • Eine kritische Masse etwa an Trainingsbildern ist nicht mehr notwendig, ein einzelnes Bild als Vorlage genügt, und die Qualität ist höher.
Jonathan ist Technikjournalist und beschäftigt sich stark mit Consumer Electronics. Er erklärt seinen Mitmenschen, wie KI bereits heute nutzbar ist und wie sie im Alltag unterstützen kann.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!