OpenAI verschärft API-Maßnahmen gegen China, Russland und weitere Länder ab Juli
Kurz & Knapp
- OpenAI plant ab dem 9. Juli strengere API-Maßnahmen gegen nicht unterstützte Länder. Betroffen sind vermutlich China mit Hongkong, Russland, Nordkorea und der Iran, obwohl OpenAI diese nicht namentlich nennt.
- Entwickler wurden per E-Mail gewarnt und müssen nun selbst Wege finden, ihre API-Nutzung zu überprüfen und anzupassen. OpenAI stellt bisher keine Informationen darüber bereit, welche API-Schlüssel Verkehr aus nicht unterstützten Regionen verursachen.
- Die Maßnahmen folgen auf einen Bericht von OpenAI über den Missbrauch ihrer KI-Modelle für Desinformationskampagnen durch staatliche Akteure aus Russland, China, Iran und Israel. Bereits im Februar wurden Konten von Bedrohungsakteuren aus diesen Ländern gelöscht, die KI-Dienste für schädliche Cyberaktivitäten nutzten.
OpenAI will ab dem 9. Juli die API-Maßnahmen gegen nicht unterstützte Länder verschärfen.
Betroffen sind vermutlich vorwiegend China mit Hongkong, Russland, Nordkorea und der Iran. OpenAI nennt diese Länder nicht beim Namen, aber es gibt eine Liste der unterstützten Länder, auf der sie fehlen.
Die Information geht auf eine E-Mail-Warnung zurück, die ein OpenAI-Entwickler erhalten hat. Darin wird auf eine API-Nutzung aus nicht unterstützten Regionen hingewiesen. Der Benutzer möchte die Richtlinien einhalten und den Verkehr aus diesen Regionen blockieren.
Da er mehrere API-Schlüssel für verschiedene Projekte verwendet, fragt er, wie er herausfinden kann, welche Schlüssel Verkehr aus nicht unterstützten Regionen verursachen. OpenAI selbst scheint diese Information bisher nicht zur Verfügung zu stellen.
Auf wiederholte Nachfrage teilte der Support mit, dass es sich um Zugriffe aus China oder Hongkong handelt, offenbar ausgelöst durch eine Cloudflare Worker App (circa 5 Prozent des Traffics). Entwickler müssen nun selbst Wege finden, ihre API-Nutzung zu überprüfen und anzupassen.
OpenAI-Services werden für Propaganda missbraucht
OpenAI veröffentlichte kürzlich einen Bericht über den Missbrauch seiner KI-Modelle für verdeckte Propagandaoperationen durch staatlich unterstützte Akteure aus Russland, China, Iran und Israel für Online-Desinformationskampagnen.
Die Kampagnen mischten KI-generierte Inhalte mit traditionellen Formaten, erzeugten aber laut OpenAI kaum Reichweite oder Engagement. Menschliche Fehler wie versehentlich veröffentlichte Systemnachrichten entlarvten die Inhalte oft als KI-generiert.
Bereits im Februar hatten OpenAI und Microsoft fünf staatliche Bedrohungsakteure aus China, Iran, Nordkorea und Russland identifiziert und deren Konten gelöscht, da sie KI-Dienste für schädliche Cyberaktivitäten nutzten, unter anderem für die Übersetzung von Fachartikeln, das Debuggen von Code sowie die Erstellung bösartiger Skripte oder Inhalte für Phishing-Kampagnen
Das Missbrauchspotenzial von KI scheint gerade im Wahljahr immens. Entsprechend sind die Bemühungen von OpenAI zu verstehen, dieses so weit wie möglich einzudämmen.
KI-News ohne Hype
Von Menschen kuratiert.
- Mehr als 20 Prozent Launch-Rabatt.
- Lesen ohne Ablenkung – keine Google-Werbebanner.
- Zugang zum Kommentarsystem und Austausch mit der Community.
- Wöchentlicher KI-Newsletter.
- 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
- Bis zu 25 % Rabatt auf KI Pro Online-Events.
- Zugang zum kompletten Archiv der letzten zehn Jahre.
- Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.