Künstlerinnen haben in ihrer Klage gegen die KI-Kunstgeneratoren Stable Diffusion, Midjourney und DeviantArt einen kleinen Sieg errungen.
Der US-Bezirksrichter William Orrick wies das Argument der Unternehmen zurück, ein kalifornisches Gesetz nach dem ersten Verfassungszusatz gebe ihnen das Recht, die Klagen vorzeitig abzuweisen, weil sie das Recht der Unternehmen auf freie Meinungsäußerung beeinträchtigten.
Konkret entschied der Richter zugunsten der Künstler in der Frage, ob die Unternehmen die Klage unter dem Anti-SLAPP-Gesetz des Bundesstaates abweisen können und entschied, dass das öffentliche Interesse in diesem Fall überwiegt. Das Anti-SLAPP-Gesetz soll unnötige und unbegründete Klagen verhindern, die lediglich die freie Meinungsäußerung behindern.
KI-Kunst und das Copyright: Grundlegende Fragen sind weiter offen
In der Klage der Künstlerinnen Sarah Andersen, Kelly McKernan und Karla Ortiz geht es um die grundlegende Frage, ob KI-Unternehmen Bilder ohne Erlaubnis aus dem Internet herunterladen und für das KI-Training verwenden dürfen.
Die im vergangenen Jahr eingereichte Klage richtete sich dabei vor allem gegen Stable Diffusion, das nach Ansicht der Kläger auch von Midjourney und DeviantArts "DreamUp" verwendet wird.
Ein weiterer Punkt der Klage ist die Frage, ob KI-Unternehmen die Namen oder den Stil von Künstlern für die Bewerbung ihrer Produkte verwenden dürfen, da dies den Markt für die Originalwerke der Künstler beeinträchtige.
Im vergangenen Herbst hatte das Gericht die Klage überwiegend abgewiesen, da die Künstler ihre eigenen Bilder teilweise nicht urheberrechtlich geschützt hätten und die Behauptungen, die beklagten Unternehmen würden die Namen der klagenden Künstler zur Bewerbung ihrer Produkte verwenden, nicht bewiesen werden konnten.
Einer Klage wegen direkter Rechtsverletzung gegen Stability AI wegen möglicher unrechtmäßiger Verwendung von urheberrechtlich geschützten Internetbildern für das KI-Training wurde jedoch stattgegeben.
Wie viele große KI-Unternehmen beruft sich Stability AI auf Fair Use, das heißt, die Daten werden nicht direkt genutzt, sondern dienen der KI als Lernbasis, um weitere, ähnliche Ergebnisse zu generieren.
Umfangreiche Tests mit Midjourney und auch mit OpenAIs DALL-E 3 zeigen jedoch, dass die Generatoren sehr wohl in der Lage sind, Bilder zu erzeugen, die nahezu exakt dem Originalmaterial oder Elementen daraus entsprechen.
Für die Gerichte stellt sich nun unter anderem die Frage, ob es sich bei solchen Kopien um eine Funktion oder eine Fehlfunktion eines KI-Modells handelt. Die gleiche Frage wird im Fall New York Times vs. OpenAI zu klären sein. Die Zeitung konnte nachweisen, dass das GPT-Modell von OpenAI mit gezielten Prompts exakte Kopien von NYT-Artikeln ausgibt.