Das KI-Unternehmen Anthropic verschärft seine Nutzungsbedingungen. Künftig sollen Firmen, die mehrheitlich von Entitäten aus China, Russland, Iran oder Nordkorea kontrolliert werden, von der Nutzung der Claude-KI-Modelle ausgeschlossen sein. Grund sind nationale Sicherheitsbedenken.
Das KI-Unternehmen Anthropic wird seine Dienste nicht mehr an Gruppen verkaufen, die mehrheitlich im Besitz chinesischer Entitäten sind. Es ist die erste derartige Richtlinienänderung eines großen amerikanischen KI-Unternehmens. Die sofort in Kraft tretende Regelung gilt auch für andere als Gegner der USA eingestufte Staaten wie Russland, Iran und Nordkorea.
Mit diesem Schritt verschärft Anthropic seine bestehenden Nutzungsbedingungen, die den Einsatz seiner Dienste in bestimmten Regionen bereits aus rechtlichen und sicherheitstechnischen Gründen untersagen. Die Maßnahme soll eine Lücke schließen, die es Unternehmen aus autoritären Staaten bisher ermöglichte, auf die KI-Modelle zuzugreifen.
Anthropic will "Schlupfloch" für autoritäre Staaten schließen
Laut Anthropic haben Unternehmen aus gesperrten Regionen wie China die Dienste des Unternehmens weiterhin genutzt, indem sie Tochtergesellschaften in anderen Ländern gründeten. Die Financial Times verweist hierbei auf eine wachsende Zahl chinesischer Tochterfirmen in Singapur, die genutzt würden, um mit geringerer Kontrolle an US-Technologie zu gelangen.
Das KI-Unternehmen argumentiert, dass Firmen, die der Kontrolle autoritärer Regime unterliegen, gesetzlich gezwungen werden können, Daten weiterzugeben und mit Geheimdiensten zusammenzuarbeiten. Dies schaffe Risiken für die nationale Sicherheit. Solche Unternehmen könnten die KI-Fähigkeiten nutzen, um Anwendungen für gegnerische Militär- und Geheimdienste zu entwickeln oder ihre eigene KI-Entwicklung durch Techniken wie Destillation voranzutreiben.
Neue Regelung betrifft auch Tochterunternehmen
Die aktualisierte Richtlinie verbietet nun die Nutzung durch Unternehmen, deren Eigentümerstrukturen sie der Kontrolle von Gerichtsbarkeiten unterwerfen, in denen die Produkte von Anthropic nicht zugelassen sind. Konkret betrifft dies laut Unternehmen Entitäten, die direkt oder indirekt zu mehr als 50 Prozent im Besitz von Firmen mit Hauptsitz in nicht unterstützten Regionen sind.
Potenziell betroffen von dieser Regelung sind laut Times große chinesische Technologiekonzerne wie ByteDance, Tencent und Alibaba. Der Verkaufsstopp gilt sowohl für Direktkunden als auch für Gruppen, die über Cloud-Dienste auf die Anthropic-Modelle zugreifen.
Ein Manager von Anthropic räumte ein, dass das Unternehmen dadurch Geschäft an Konkurrenten verlieren werde. Die finanziellen Auswirkungen auf den weltweiten Umsatz werden auf einen "niedrigen dreistelligen Millionenbetrag" geschätzt. Der Schritt sei jedoch notwendig, um auf ein "erhebliches Problem" aufmerksam zu machen.
US-Chatbots wie Claude oder ChatGPT sind in China offiziell gesperrt, können aber über VPN-Dienste genutzt werden. Inzwischen gibt es vor Ort jedoch eine große Anzahl leistungsfähiger Alternativen, darunter die Modellreihen Qwen, Deepseek, Kimi und GLM. Die neuen Nutzungsbedingungen könnten in der Praxis daher erst dann tatsächliche Auswirkungen in China haben, wenn ein etwaiger Vorteil durch die breit verfügbaren, leistungsstarken KI-Beschleuniger in den USA gegenüber in China verfügbarer Hardware zum Tragen käme. Bis dahin dürften die heimischen Hersteller eine Alternative darstellen.