Inhalt
summary Zusammenfassung
DEEP MINDS Podcast
Podcast über Künstliche Intelligenz und Wissenschaft
KI bei der Bundeswehr und der BWI | DEEP MINDS #16

80 Millionen Bilder verschwinden aus dem Trainingsmaterial für Stable Diffusion 3. Doch das Urheberrechtsproblem großer KI-Bildmodelle ist damit lange nicht gelöst.

Der Erfolg von KI-Bildmodellen hat eine Schattenseite: Von Beginn an begleitete die Entwicklung die Kritik an Unternehmen wie Stability AI, die ohne Zustimmung der Künstler:innen deren Werke zum Training von Stable Diffusion verwendet haben. Mittlerweile streiten sich die Beteiligten auch vor Gericht.

Das AI-Startup Spawning hat es sich zur Aufgabe gemacht, etwas mehr Transparenz in die Sache zu bringen. In einem ersten Schritt hat es die Suchmaschine haveibeentrained.com veröffentlicht, mit der man die Trainingsdaten durchsuchen kann. Das hat unter anderem dazu geführt, dass Nutzer:innen sensible Daten über sich im Datensatz entdeckt haben.

Zur Funktion der Plattform gehört auch, dass Künstler:innen ihre Bilder aus dem Trainingsdatensatz für KI-Modelle entfernen können. Im Dezember 2022 kündigte Spawning an, dass Stability AI dieses sogenannte Opt-out von Künstler:innen beim Training von Stable Diffusion 3 berücksichtigen werde. Die Frist ist am 3. März abgelaufen.

Anzeige
Anzeige

Nun gibt Spawning bekannt, dass Künstler:innen die Freigabe von 80 Millionen Kunstwerken zum Training von KI-Modellen entzogen haben. Spawning wertet das als Erfolg.

"Das ist ein wichtiger Präzedenzfall auf dem Weg zur Verwirklichung unserer Vision einer einvernehmlichen KI und wir stehen erst am Anfang!", so die Organisation auf Twitter.

Gemessen an den mehr als zwei Milliarden Bildern des von Stable Diffusion genutzten LAION-Datensatzes ist das allerdings nur ein Tropfen auf den heißen Stein, umgerechnet etwa drei Prozent.

Opt-outs über ArtStation und Shutterstock

Spawning baute bei der Umsetzung des Opt-out auf Partnerschaften mit Anbietern wie ArtStation und Shutterstock. Auch über diese Plattformen konnten Kunstschaffende das Training mit ihren Werken ablehnen oder die Bilder wurden standardmäßig ausgeschlossen. Über 40.000 Verzichtserklärungen wurden direkt über haveibeentrained.com abgegeben.

Jeder Urheberrechtsanspruch wurde von Spawning manuell geprüft. Tools, um mehrere Bilder individueller Künstler:innen auf einen Schlag auszutragen, sind in Arbeit, waren jedoch bis zur Frist für Stable Diffusion 3 noch nicht fertig. Die Plattform ermöglicht Künstler:innen auch, ihre Werke explizit für das KI-Training freizugeben, wenn sie noch nicht im Datensatz enthalten sind.

Empfehlung

Wir haben diese Dienste kostenlos zur Verfügung gestellt.

Wir sind davon überzeugt, dass die einvernehmliche Bereitstellung von Daten sowohl für KI-Organisationen als auch für die Menschen, an denen diese Systeme trainiert werden, von großem Nutzen sein wird.

Wir haben kürzlich ein von Menschen verifiziertes Artist-Opt-in eingeführt und arbeiten an weiteren Tools und Partnerschaften.

Spawning

Das Opt-out-Verfahren kommt bei den Künstler:innen nicht nur positiv an. Viele halten ein generelles Opt-in-Verfahren für besser, das heißt, dass die Bilder proaktiv für das Trainingsmaterial zur Verfügung gestellt werden müssen. Die Notwendigkeit, sich auf einer Website zu registrieren und damit noch mehr Daten preiszugeben, wird von einigen als der falsche Weg angesehen.

Großes Zeichen, kleine Wirkung

Alles in allem ist das Opt-out dennoch ein gutes Zeichen und ein wichtiger Baustein für die Weiterentwicklung von KI-Modellen. Die Stile mancher Künstler:innen dürften mit Stable Diffusion 3 nicht mehr nativ reproduziert werden können.

Dass die Debatte bei den Bildgeneratoren heftiger geführt wird als bei Sprachmodellen, mag daran liegen, dass Plagiate bestimmter Stile hier am schnellsten auffallen. Aber auch Verlage und Autor:innen haben ein Bedürfnis, ihre Werke von Sprachmodellen fernzuhalten.

Es ist jedoch fraglich, ob KI-Modelle selbst mit Opt-in-Verfahren in Zukunft nicht mehr auf urheberrechtlich geschütztes Material zur Bildgenerierung zurückgreifen werden. Schließlich wird es für Anwender:innen immer einfacher, Stable Diffusion mit eigenen Bildern zu füttern, unter anderem durch die neue ControlNet-Methode. Die Verantwortung wird sich daher wahrscheinlich nur von den Unternehmen auf die Privatpersonen verlagern.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Künstler:innen hatten bis zum 3. März Zeit, ihre Bilder aus dem Trainingsmaterial von Stable Diffusion 3 zu entfernen.
  • Insgesamt wurden 78 Millionen Bilder aus dem Trainingsmaterial entfernt.
  • Das sind allerdings nur etwa drei Prozent des gesamten Trainingsmaterials. Zudem stößt das Verfahren nicht bei allen Künstler:innen auf Gegenliebe.
Quellen
Jonathan ist Technikjournalist und beschäftigt sich stark mit Consumer Electronics. Er erklärt seinen Mitmenschen, wie KI bereits heute nutzbar ist und wie sie im Alltag unterstützen kann.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!