Anzeige
Skip to content

OpenAI, Anthropic und Google arbeiten gemeinsam gegen chinesisches Modell-Kopieren

OpenAI, Anthropic und Google haben laut Bloomberg begonnen, gemeinsam gegen das unautorisierte Kopieren ihrer KI-Modelle durch chinesische Wettbewerber vorzugehen. Die drei Unternehmen tauschen über das 2023 gegründete "Frontier Model Forum" Informationen aus, um sogenannte feindliche Destillation zu erkennen. Bei der Destillation werden die Outputs eines bestehenden KI-Modells genutzt, um ein günstigeres Nachahmungsmodell zu trainieren. Eines der ersten Beispiele war Stanfords Alpaca-Modell, das die Machbarkeit demonstrierte, doch mittlerweile ist die Praxis zu einem echten Problem für die US-Unternehmen geworden.

US-Behörden schätzen laut Bloomberg, dass diese Praxis den amerikanischen Labs jährlich Milliarden Dollar an Gewinn kostet. OpenAI hatte bereits im Februar den US-Kongress gewarnt, dass Deepseek zunehmend ausgefeilte Methoden nutze, um Daten aus US-Modellen abzuziehen. Anthropic identifizierte Deepseek, Moonshot und Minimax als Akteure. Die Zusammenarbeit ähnelt dem Vorgehen in der Cybersicherheitsbranche, wo Firmen routinemäßig Angriffsdaten austauschen.

Anzeige
DEC_D_Incontent-1

KI-News ohne Hype – von Menschen kuratiert

Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den "KI Radar"‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.

Quelle: Bloomberg