Inhalt
summary Zusammenfassung

In den USA startet eine Sammelklage gegen Midjourney und Stability AI. Auch die Kunstplattform DeviantArt wird verklagt.

Die US-Künstlerinnen Sarah Andersen, Kelly McKernan und Karla Ortiz starten in Kalifornien eine Sammelklage gegen Stability AI (Stable Diffusion) und Midjourney. Die Künstlerinnen verlangen Schadensersatz und eine Unterlassungserklärung, um zukünftigen Schaden zu verhindern.

Auch die Kunstplattform DeviantArt steht auf der Anklageliste, da sie Tausende oder gar Millionen von Bildern im LAION-Datensatz für das Training von Stable Diffusion bereitgestellt haben soll.

Anstatt sich auf die Seite von Künstler:innen zu schlagen, habe DeviantArt zudem mit DreamUp eine auf Stable Diffusion-basierte KI-Kunst-App ins Netz gestellt, heißt es seitens der Klägerinnen.

Anzeige
Anzeige

KI-Code-Anwalt macht mit Bildern weiter

Hinter der Klage steckt der Programmierer und Anwalt Matthew Butterick. Er führt eine weitere Klage gegen Microsoft, Github und OpenAI, da GitHubs Code-KI Copilot Code-Ausschnitte von Entwickler:innen ohne Quellangabe wiedergebe und gegen Open-Source-Lizenzbedingungen verstoße.

Über Stable Diffusion und Co. fällt Butterick ein harsches Urteil: "Es handelt sich um einen Parasiten, der, wenn er sich weiter ausbreitet, den Künstlern jetzt und in Zukunft irreparablen Schaden zufügen wird."

Datensätze ohne Einwilligung sind der Schwachpunkt aktueller Bild-KI-Systeme

In seiner Klagebegründung zieht Butterick auf den - aus rechtlicher Perspektive - größten Schwachpunkt von Bild-KI-Systemen ab: Fast kein Künstler und keine Künstlerin hat eine explizite Einwilligung erteilt, dass die eigenen Werke für das Training eines KI-Systems verwendet werden dürfen.

Selbst wenn also die von den Systemen generierten Bilder als Originale durchgehen - das generierende System würde noch immer auf nicht genehmigten Daten basieren.

Bei Butterick klingt das so: "Da alle visuellen Informationen im System von den urheberrechtlich geschützten Trainingsbildern abgeleitet sind, handelt es sich bei den produzierten Bildern - unabhängig von ihrem äußeren Erscheinungsbild - zwangsläufig um Werke, die von diesen Trainingsbildern abgeleitet sind."

Empfehlung

Eine Studie untersuchte kürzlich die Einzigartigkeit von mit Diffusionsmodellen KI-generierten Bildern und konnte nachweisen, dass relativ genaue Kopien von Originalbildern im Trainingsdatensatz regelmäßig passieren - mindestens in zwei von 100 Fällen.

Stability-AI-Gründer Emad Mostaque stellte im vergangenen November in Aussicht, dass künftige Stable-Diffusion-Modelle auf Basis vollständig lizenzierter Datensätze trainiert werden. Zudem sollen Künstler:innen Opt-out-Mechanismen für ihre Bilddaten erhalten.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Der Zwist zwischen Kunst-Community und KI-Bildgeneratoren ist lange nicht ausgefochten.
  • In den USA startet jetzt eine Sammelklage dreier Künstlerinnen gegen Stability AI (Stable Diffusion), Midjourney und DeviantArt.
  • Die zugrundeliegende These: Die Bilder fürs KI-Training wurden ohne Einwilligung der Künstler:innen verwendet. Jedes generierte Bild sei daher Ursprung eines Copyright-Verstoßes.
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!