OpenAI hat nach eigenen Angaben Beweise dafür, dass das chinesische KI-Start-up Deepseek seine Modelle zum Training eines Konkurrenzprodukts genutzt hat. Der Fall wirft ein Schlaglicht auf umstrittene Praktiken in der KI-Entwicklung.
Laut Berichten der Financial Times und Bloomberg haben Microsoft und OpenAI Hinweise darauf gefunden, dass das chinesische Start-up Deepseek die proprietären Modelle des US-Unternehmens genutzt hat, um seine eigenen Open-Source-Modelle zu trainieren. OpenAI sagte der Financial Times, man habe einige Hinweise auf eine "Destillation" gefunden, einer Technik, bei der Entwickler die Leistung kleinerer Modelle verbessern, indem sie die Ausgaben größerer, leistungsfähigerer Modelle nutzen.
Die Destillation ist zwar eine gängige Praxis in der Branche, insbesondere in Forschungseinrichtungen, darf aber nicht zur Entwicklung von Konkurrenzprodukten eingesetzt werden. Anbieter wie OpenAI verbieten das in ihren Nutzungsbedingungen.
OpenAI und Microsoft blockierten verdächtige Konten
Laut den Berichten haben OpenAI und Microsoft bereits im vergangenen Jahr verdächtige Konten entdeckt. Microsofts Sicherheitsforscher beobachteten demnach im Herbst, wie Personen, die möglicherweise mit Deepseek in Verbindung standen, große Datenmengen über OpenAIs API extrahierten, so Bloomberg.
Die verdächtigen Konten wurden daraufhin von beiden Unternehmen untersucht und gesperrt. Der Verdacht: systematische Verstöße gegen die Nutzungsbedingungen durch unerlaubte Destillation.
"Wir wissen, dass Unternehmen aus China - und andere - ständig versuchen, die Modelle führender US-KI-Unternehmen zu destillieren", so OpenAI in einer jüngsten Stellungnahme, ohne Deepseek direkt anzusprechen. Das Unternehmen arbeite eng mit der US-Regierung zusammen, um die leistungsfähigsten Modelle vor solchen Versuchen zu schützen.