Inhalt
summary Zusammenfassung

Ed Newton-Rex, Leiter des Audio-Teams von Stability AI, ist von seiner Position zurückgetreten. Als Grund nannte er Meinungsverschiedenheiten über die Anwendung von "Fair Use" beim Training generativer KI-Modelle.

In einer öffentlichen Stellungnahme äußerte Newton-Rex seine Bedenken: "Ich stimme nicht mit der Ansicht des Unternehmens überein, dass das Training generativer KI-Modelle auf urheberrechtlich geschützten Werken 'Fair Use' ist."

Er würdigte zwar den durchdachten Ansatz vieler Mitarbeiter von Stability AI und lobte das Unternehmen für seine Unterstützung bei der Entwicklung von Stable Audio, einem KI-Musikgenerator, der auf lizenzierten Trainingsdaten basiert und die Einnahmen mit den Rechteinhabern teilt. Das habe jedoch nicht die vorherrschende Meinung über "Fair Use" innerhalb des Unternehmens geändert.

US Copyright Office untersucht Fair Use im Fall generativer KI

Die Frage der "fairen Nutzung" in der generativen KI rückte in den Vordergrund, als das US Copyright Office kürzlich öffentliche Stellungnahmen zu diesem Thema einholte. Stability AI war eines der Unternehmen, die darauf reagierten. In seiner 23-seitigen Stellungnahme erklärte Stability AI: "Wir glauben, dass die Entwicklung von KI eine akzeptable, transformative und gesellschaftlich vorteilhafte Nutzung bestehender Inhalte ist, die durch den "Fair Use" geschützt ist.

Anzeige
Anzeige

"Fair Use" ist ein Rechtsgrundsatz, der die begrenzte Nutzung von urheberrechtlich geschütztem Material ohne die Zustimmung des Rechteinhabers erlaubt. Laut Newton-Rex hängt einer der Faktoren, die beeinflussen, ob das Kopieren als "Fair Use" angesehen wird, davon ab, "wie sich die Nutzung auf den potenziellen Markt oder den Wert des urheberrechtlich geschützten Werks auswirkt".

Er ist der Ansicht, dass heutige generative KI-Modelle verwendet werden können, um Werke zu schaffen, die mit den urheberrechtlich geschützten Werken, auf denen sie trainiert wurden, konkurrieren.

KI-Training ohne Zustimmung sei grundsätzlich falsch

Neben dem "Fair Use"-Argument ist Newton-Rex auch der Ansicht, dass es moralisch falsch ist, generative KI-Modelle ohne Erlaubnis zu trainieren. Er sagte, dass Unternehmen, die Milliarden von Dollar wert sind, KI-Modelle ohne Erlaubnis an den Werken von Kreativen trainieren und damit möglicherweise deren Lebensgrundlage untergraben.

Trotz seiner Meinungsverschiedenheiten mit Stability AI in Bezug auf "Fair Use" bleibt Newton-Rex ein Befürworter der generativen KI, da er seit 13 Jahren in diesem Bereich tätig ist. Er betont jedoch, dass er nur eine generative KI unterstützen kann, die Kreative nicht ausbeutet, indem sie Modelle auf deren Werke ohne deren Erlaubnis trainiert.

Newton-Rex hofft, dass sich noch weitere Mitarbeiter von Unternehmen, die sich mit generativer KI beschäftigen, zum Thema "Fair Use" äußern und sich für eine Änderung des Umgangs mit Kreativen bei der Entwicklung generativer KI-Technologie einsetzen werden.

Empfehlung

Meta & Co halten Lizenzgebühren für nicht bezahlbar

Neben Stability AI haben sich auch KI-Unternehmen wie Meta, Google und OpenAI gegenüber dem US Copyright Office geäußert und argumentiert, dass das Trainieren von KI-Modellen mit urheberrechtlich geschütztem Material eine faire Nutzung darstelle und die Rechte der Urheberrechtsinhaber nicht verletze. Meta verglich die generative KI mit einer Druckerpresse, einer Kamera oder einem Computer und wies insbesondere darauf hin, dass hohe Lizenzgebühren für KI-Trainingsdaten die Entwicklung der generativen KI bremsen könnten.

Google und OpenAI plädierten für eine flexible Auslegung der fairen Nutzung und warnten vor verfrühten gesetzgeberischen Maßnahmen, die Innovationen behindern und die Möglichkeiten der KI-Technologie einschränken könnten.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Ed Newton-Rex, Leiter des Audio-Teams von Stability AI, ist aufgrund von Meinungsverschiedenheiten mit Stability AI über die Anwendung von "Fair Use" beim Training generativer KI-Modelle zurückgetreten.
  • Das US Copyright Office untersucht derzeit die Frage des "Fair Use" im Zusammenhang mit generativer KI und hat dazu öffentliche Stellungnahmen von Unternehmen wie Stability AI, Meta, Google und OpenAI eingeholt.
  • Newton-Rex argumentiert, dass kein "Fair Use" vorliege und dass es moralisch falsch sei, generative KI-Modelle ohne Erlaubnis zu trainieren, und hofft, dass andere Mitarbeiter von KI-Unternehmen sich für eine Änderung der Einstellung gegenüber kreativen Menschen einsetzen werden.
Quellen
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!