Das kostenlose Tool Glaze, das Künstler vor dem Kopieren ihres Stils durch KI-Bildgeneratoren schützen soll, erlebt derzeit einen dramatischen Anstieg der Nachfrage.
Das Tool fügt Bildern für Menschen nicht wahrnehmbare Störungen hinzu, um zu verhindern, dass KI-Systeme den Stil nachahmen. Laut Ben Zhao, dem Entwickler von Glaze, gibt es einen großen Rückstau bei der Genehmigung von Zugangsanträgen für die webbasierte Version WebGlaze, seit Meta Nutzerdaten für das KI-Training verwenden will.
Künstler müssen manchmal Wochen oder Monate auf den Zugang warten - das Glaze Project überprüft jeden Antrag manuell, um sicherzustellen, dass es sich um echte Personen handelt und die Tools nicht missbraucht werden.
Gleichzeitig haben Sicherheitsforscher einen Weg gefunden, den Schutz des Glaze-Tools zu umgehen. Zhao und sein Team haben zwar Änderungen vorgenommen, um den Angriff zu erschweren, dennoch stellt der Angriff die Wirksamkeit von Glaze infrage - zumal das Team hinter dem Angriff die Änderungen als unzureichend kritisiert hat.
Glaze ist ein kostenloses Tool, das Künstler vor dem Kopieren ihres Stils durch KI-Bildgeneratoren schützen soll. Es fügt Bildern für Menschen nicht wahrnehmbare Störungen hinzu, um zu verhindern, dass KI-Systeme den Stil nachahmen. Unsichtbare Pixel in den Originabildern gaukeln Bild KI-Systemen falsche Stile vor.
Das Glaze-Entwicklerteam arbeitet auch an einem weiteren Tool namens Nightshade. Es soll manipulierte Pixel verwenden, um KI-Modellen Schaden zuzufügen, indem es sie verwirrt. So könnte das KI-Modell beispielsweise ein Auto statt eines Zuges sehen. Weniger als 100 dieser "vergifteten" Bilder könnten ausreichen, um ein KI-Bildmodell oder seine Trainingsdaten zu korrumpieren.
Hintergrund solcher Tools ist die aktuelle Debatte um das Urheberrecht von KI. Große KI-Unternehmen haben Bilder, die im Internet frei zugänglich sind, ohne Erlaubnis verwendet, um ihre Bild-KI-Modelle zu trainieren. Viele Künstler sehen dadurch ihre Urheberrechte verletzt und fühlen sich in ihrer Arbeit bedroht.