Inhalt
summary Zusammenfassung

Ein Bericht der New York Times zeigt, dass sich die großen KI-Unternehmen nicht um Urheber- und Lizenzrechte scheren, wenn sie Daten für das KI-Training sammeln. Dabei kommen sie sich gegenseitig in die Quere.

Laut dem Bericht der New York Times ignorierten OpenAI, Google und Meta teilweise ihre eigenen Richtlinien und diskutierten sogar darüber, absichtlich Urheberrechte zu verletzen, weil sie davon ausgingen, dass die Konkurrenz dies tun würde.

OpenAI entwickelte etwa das Spracherkennungstool Whisper, um über eine Million Stunden YouTube-Videos zu transkribieren. Das Unternehmen wusste, dass dies rechtlich fragwürdig sein könnte, da YouTube die Nutzung seiner Inhalte für Anwendungen, die nicht mit der Videoplattform in Verbindung stehen, verbietet.

Die so gewonnenen Texte flossen dennoch in die Entwicklung von GPT-4 ein, dem fortschrittlichsten Sprachmodell von OpenAI. Dass OpenAI mit YouTube-Transkripten arbeitet, berichtete The Information schon im Sommer 2023.

Anzeige
Anzeige

Alles hängt an "Fair Use"

Auch Google nutzte Transkripte von YouTube-Videos, um seine eigenen KI-Modelle zu trainieren - möglicherweise ebenfalls eine Verletzung der Urheberrechte der Videomacher.

Google-Sprecher Matt Bryant beteuerte gegenüber der NYT zwar, dass der Konzern Vereinbarungen mit den YouTube-Autoren habe, die eine solche Nutzung erlaubten. Er räumt gegenüber The Verge aber ein, dass Google "unbestätigte Berichte" über die Praxis von OpenAI kenne.

Google hat zudem seine Datenschutzbestimmungen geändert, um mehr Nutzerdaten aus den eigenen Diensten für das KI-Training abziehen zu können. Dies gilt sowohl für YouTube als auch für Inhalte aus Google Docs, Google Sheets und ähnlichen Produkten, um KI-Systeme wie Google Translate und Bard zu verbessern.

Google passte seine Datenschutzbestimmungen nachträglich an, um mehr Nutzerdaten fürs KI-Training verwenden zu können. | Bild: New York Times

Die US-amerikanische Wettbewerbsbehörde FTC sieht solche nachträglichen Anpassungen von Datenschutzbestimmungen, um mehr Daten fürs KI-Training abzuziehen, kritisch und warnt Unternehmen vor diesem Vorgehen.

Auch bei Meta diskutierten Manager und Juristen laut Aufzeichnungen, wie sie trotz Urheberrechtsbeschränkungen an zusätzliche Daten kommen könnten - etwa durch den möglichen Kauf des Verlags Simon & Schuster, der Autoren wie J.K. Rowling und Stephen King verlegt.

Empfehlung

Druck kam von Mark Zuckerberg, der schnell mit ChatGPT gleichziehen wollte. Intern wurde argumentiert, dass Lizenzverhandlungen mit Verlagen, Künstlern, Musikern und der Nachrichtenindustrie zu lange dauern würden und dass die Nutzung der Daten wahrscheinlich "Fair Use" sei.

Meta sagte auch, dass Lizenzvereinbarungen in der Größenordnung, wie sie für das KI-Training benötigt werden, nicht erschwinglich seien. Auch OpenAI sagte, dass aktuelle KI-Modelle ohne Training auf urheberrechtlich geschützten Daten nicht möglich seien.

Verklagt Google nun OpenAI?

Der Bericht der NYT macht eines deutlich: Die großen Tech-Konzerne scheren sich beim Datensammeln nicht um die Rechte Dritter, sie haben kaum ethische Bedenken oder biegen die Regeln so, dass sie in ihr Geschäftsmodell passen.

Der Gipfel der Widersprüchlichkeit wäre, wenn Google OpenAI wegen des YouTube-Trainings verklagen würde, wie es YouTube-CEO Neal Mohan kürzlich angedroht hat, während es selbst wegen zahlreicher möglicher Datenrechtsverletzungen vor Gericht steht.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Erst jetzt, wo die ersten großen KI-Modelle verfügbar sind, sich am Markt zu bewähren scheinen und Teile der Öffentlichkeit kritisch nachfragen, bemühen sich KI-Konzerne um die Lizenzierung von Trainingsdaten, etwa von Verlagen, Communities wie Reddit oder Online-Archiven wie Photobucket.

Zudem experimentieren die Unternehmen mit synthetischen Daten für das KI-Training, also Datensätzen, die von KI-Modellen generiert wurden. Diese bergen jedoch Risiken, etwa dass bestehende Fehler und Vorurteile weiter verstärkt werden, was mittelfristig unter anderem zu Leistungseinbußen führen könnte. Überdies stellt sich die Frage des legitimen Datensprungs, wenn Modelle, die künstliche Trainingsdaten erzeugen, mit geschützten Originaldaten trainiert wurden.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Laut einem Bericht der New York Times haben OpenAI, Google und Meta eigene Richtlinien ignoriert und Urheberrechte verletzt, um an Daten für das Training ihrer KI-Modelle zu kommen.
  • So transkribierte OpenAI über eine Million Stunden YouTube-Videos, obwohl dies gegen die Nutzungsbedingungen der Plattform verstößt.
  • Google nutzte ebenfalls YouTube-Transkripte zum Training eigener KI-Modelle und änderte Datenschutzbestimmungen, um mehr Nutzerdaten aus eigenen Diensten abzuziehen. Bei Meta diskutierten Manager, wie man an zusätzliche Daten kommen könnte, etwa durch den Kauf eines Verlags. Intern wurde argumentiert, die Nutzung der Daten sei "Fair Use".
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!