Ed Newton-Rex, Leiter des Audio-Teams von Stability AI, ist von seiner Position zurückgetreten. Als Grund nannte er Meinungsverschiedenheiten über die Anwendung von "Fair Use" beim Training generativer KI-Modelle.
In einer öffentlichen Stellungnahme äußerte Newton-Rex seine Bedenken: "Ich stimme nicht mit der Ansicht des Unternehmens überein, dass das Training generativer KI-Modelle auf urheberrechtlich geschützten Werken 'Fair Use' ist."
Er würdigte zwar den durchdachten Ansatz vieler Mitarbeiter von Stability AI und lobte das Unternehmen für seine Unterstützung bei der Entwicklung von Stable Audio, einem KI-Musikgenerator, der auf lizenzierten Trainingsdaten basiert und die Einnahmen mit den Rechteinhabern teilt. Das habe jedoch nicht die vorherrschende Meinung über "Fair Use" innerhalb des Unternehmens geändert.
US Copyright Office untersucht Fair Use im Fall generativer KI
Die Frage der "fairen Nutzung" in der generativen KI rückte in den Vordergrund, als das US Copyright Office kürzlich öffentliche Stellungnahmen zu diesem Thema einholte. Stability AI war eines der Unternehmen, die darauf reagierten. In seiner 23-seitigen Stellungnahme erklärte Stability AI: "Wir glauben, dass die Entwicklung von KI eine akzeptable, transformative und gesellschaftlich vorteilhafte Nutzung bestehender Inhalte ist, die durch den "Fair Use" geschützt ist.
"Fair Use" ist ein Rechtsgrundsatz, der die begrenzte Nutzung von urheberrechtlich geschütztem Material ohne die Zustimmung des Rechteinhabers erlaubt. Laut Newton-Rex hängt einer der Faktoren, die beeinflussen, ob das Kopieren als "Fair Use" angesehen wird, davon ab, "wie sich die Nutzung auf den potenziellen Markt oder den Wert des urheberrechtlich geschützten Werks auswirkt".
Er ist der Ansicht, dass heutige generative KI-Modelle verwendet werden können, um Werke zu schaffen, die mit den urheberrechtlich geschützten Werken, auf denen sie trainiert wurden, konkurrieren.
KI-Training ohne Zustimmung sei grundsätzlich falsch
Neben dem "Fair Use"-Argument ist Newton-Rex auch der Ansicht, dass es moralisch falsch ist, generative KI-Modelle ohne Erlaubnis zu trainieren. Er sagte, dass Unternehmen, die Milliarden von Dollar wert sind, KI-Modelle ohne Erlaubnis an den Werken von Kreativen trainieren und damit möglicherweise deren Lebensgrundlage untergraben.
Trotz seiner Meinungsverschiedenheiten mit Stability AI in Bezug auf "Fair Use" bleibt Newton-Rex ein Befürworter der generativen KI, da er seit 13 Jahren in diesem Bereich tätig ist. Er betont jedoch, dass er nur eine generative KI unterstützen kann, die Kreative nicht ausbeutet, indem sie Modelle auf deren Werke ohne deren Erlaubnis trainiert.
Newton-Rex hofft, dass sich noch weitere Mitarbeiter von Unternehmen, die sich mit generativer KI beschäftigen, zum Thema "Fair Use" äußern und sich für eine Änderung des Umgangs mit Kreativen bei der Entwicklung generativer KI-Technologie einsetzen werden.
Meta & Co halten Lizenzgebühren für nicht bezahlbar
Neben Stability AI haben sich auch KI-Unternehmen wie Meta, Google und OpenAI gegenüber dem US Copyright Office geäußert und argumentiert, dass das Trainieren von KI-Modellen mit urheberrechtlich geschütztem Material eine faire Nutzung darstelle und die Rechte der Urheberrechtsinhaber nicht verletze. Meta verglich die generative KI mit einer Druckerpresse, einer Kamera oder einem Computer und wies insbesondere darauf hin, dass hohe Lizenzgebühren für KI-Trainingsdaten die Entwicklung der generativen KI bremsen könnten.
Google und OpenAI plädierten für eine flexible Auslegung der fairen Nutzung und warnten vor verfrühten gesetzgeberischen Maßnahmen, die Innovationen behindern und die Möglichkeiten der KI-Technologie einschränken könnten.