Inhalt
summary Zusammenfassung

Inwieweit heben sich KI-Bilder von ihrem Trainingsmaterial ab? Das will eine Untersuchung verschiedener Diffusionsmodelle feststellen. 

Die Diskussion um Kunst, die Bild-KIs wie Stable Diffusion, DALL-E 2 und Midjourney erstellen oder eben nicht, begleitet die Werkzeuge seit ihrer Entstehung. Auch um das Urheberrecht, vor allem im Hinblick auf das verwendete Trainingsmaterial, gibt es eine Debatte. Zuletzt stand der beliebte Promptzusatz "trending on artstation" im Fokus von Anti-KI-Bild-Protesten. Er baut darauf auf, bei Artstation beliebte Kunstwerke zu imitieren.

Große und umfangreich trainierte Diffusionsmodelle sollen sicherstellen, dass mit jeder neuen Eingabe ein einzigartiges Bild entsteht, das weit entfernt von den Originalen der Trainingsdaten ist. Aber stimmt das?

Größe des Datensatzes und Replikation hängen zusammen

Wissenschaftler:innen der New York University und der University of Maryland haben sich dieser Frage in einem neuen Paper mit dem Titel "Diffusion Art or Digital Forgery?" angenommen.

Anzeige
Anzeige

Sie untersuchen verschiedene Diffusionsmodelle, die auf unterschiedlichen Datensätzen wie Oxford Flowers, Celeb-A, ImageNet und LAION trainiert wurden. Sie wollten herausfinden, wie sich Faktoren wie der Umfang der Trainingsdaten und des Trainings auf die Replikationsrate von Inhalten auswirken.

Die Ergebnisse der Studie sind auf den ersten Blick wenig überraschend: Diffusionsmodelle, die auf kleineren Datensätzen trainiert wurden, erzeugen eher Bilder, die aus den Trainingsdaten kopiert sind. Der Umfang der Replikation verringert sich mit Vergrößerung des Trainingssatzes.

Studie untersuchte nur kleinen Ausschnitt der Trainingsdaten

Die Forscher:innen untersuchten mit dem zwölf Millionen Bilder großen "12M LAION Aesthetics v2 6+" nur einen kleinen Ausschnitt des zwei Milliarden Bilder umfassenden Trainingsdatensatz von Stable Diffusion. Dabei stellten sie fest, dass Modelle wie Stable Diffusion "eklatant von ihren Trainingsdaten kopieren".

Eine solche Datenreplikation sei jedoch nicht zwingend notwendig, wie ältere Studien zu generativen Modellen wie GANs gezeigt hätten, heißt es im Paper. Das Team bestätigt dies mit einem mit ImageNet trainiertem "Latent Diffusion"-Modell (LDM), bei dem es keine Hinweise auf signifikante Datenreplikationen findet. Was macht Stable Diffusion also anders?

Kopien nicht regelmäßig, aber häufig genug

Die Forscher:innen vermuten, dass das Replikationsverhalten in Stable Diffusion aus einer komplexen Interaktion von Faktoren resultiert, etwa, dass das Modell text- und nicht klassenkonditioniert sei und der für das Training genutzte Datensatz eine schiefe Verteilung von Bildwiederholungen habe.

Empfehlung
Stable Diffusion repliziert mitunter deutlich Originale. | Bild: Somepalli et al.

In den zufälligen Tests seien im Schnitt etwa zwei von 100 generierten Bilder den Bildern aus dem Datensatz sehr ähnlich (Ähnlichkeitscore > 0,5).

Das Ziel dieser Studie war es, zu bewerten, ob Diffusionsmodelle in der Lage sind, Inhalte aus ihren Trainingsdaten originalgetreu wiederzugeben, und wir stellen fest, dass sie dies können. Zwar scheinen typische Bilder aus groß angelegten Modellen keine kopierten Inhalte zu enthalten, die mit unseren Methoden erkannt werden könnten, doch scheinen Kopien häufig genug aufzutreten, so dass ihr Auftreten nicht ignoriert werden sollte.

Aus dem Paper

Da für die Tests lediglich 0,6 Prozent der Trainingsdaten von Stable Diffusion genutzt wurden, gebe es zahlreiche Beispiele, die nur in den größeren Modellen zu finden seien. Zudem sei es möglich, dass die verwendeten Methoden nicht alle Fälle von Datenreplikation aufdecken.

Aus diesen beiden Gründen, heißt es im Paper, "unterschätzen die vorliegenden Ergebnisse systematisch den Umfang der Replikation in Stable Diffusion und anderen Modellen."

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Die Debatte um Urheberrechtsverletzungen durch Trainingsdatensätze von Bild-KIs bekommt neuen Input.
  • Wissenschaftler:innen haben untersucht, wie oft Diffusionsmodelle Inhalte aus ihrem Trainingsmaterial reproduzieren.
  • Ihrer Ansicht nach treten diese Fälle häufig genug auf, dass man die Existenz von Bildkopien nicht leugnen könne.
Quellen
Jonathan ist Technikjournalist und beschäftigt sich stark mit Consumer Electronics. Er erklärt seinen Mitmenschen, wie KI bereits heute nutzbar ist und wie sie im Alltag unterstützen kann.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!