OpenAI und Microsoft haben fünf Konten staatlicher Bedrohungsakteure gelöscht, die KI-Dienste für bösartige Cyberaktivitäten genutzt haben.
Konkret handelt es sich um fünf Akteure aus China, Iran, Nordkorea und Russland. Die fünf Akteure nutzten die Dienste für Aufgaben wie die Suche nach Unternehmen und Cybersicherheitstools, die Übersetzung von Fachartikeln, das Debuggen von Code und die Erstellung schädlicher Skripte oder Inhalte für Phishing-Kampagnen.
Die Akteure versuchten zudem, öffentlich verfügbare Schwachstellen zu verstehen und Open-Source-Forschung zu Satellitenkommunikationsprotokollen und Radarbildtechnologie zu betreiben. Ein Akteur versuchte, Verteidigungsexperten im asiatisch-pazifischen Raum ausfindig zu machen.
In Zusammenarbeit mit Microsoft Threat Intelligence konnte OpenAI alle fünf Akteure erfolgreich ausschalten. Laut OpenAI stimmen die Aktivitäten der Akteure mit früheren Red-Team-Bewertungen überein, die OpenAI in Zusammenarbeit mit externen Cybersicherheitsexperten durchgeführt hat.
Diese Bewertungen zeigten, dass GPT-4 nur begrenzte, inkrementelle Fähigkeiten für bösartige Cybersicherheitsaufgaben bietet, die laut OpenAI nicht weit über das hinausgehen, was bereits mit öffentlich verfügbaren Tools ohne KI möglich ist.
Berichten von Cybersicherheitsunternehmen zufolge hat insbesondere das ausgeklügelte Phishing zugenommen. OpenAI hat kürzlich ein Experiment veröffentlicht, in dem es untersuchte, ob GPT-4 Profis oder Studierenden bei der Herstellung biologischer Gefahrstoffe effizienter helfen kann als eine Internetrecherche. Das Ergebnis zeigte, dass GPT-4 zwar hilft, der Unterschied aber gering ist.