KI in der Praxis

WormGPT: Die dunkle Seite generativer KI im E-Mail-Betrug

Matthias Bastian

Midjourney prompted by THE DECODER

Cyberkriminelle nutzen zunehmend generative KI-Anwendungen wie ChatGPT oder WormGPT, ein auf Malware spezialisiertes Modell, um äußerst überzeugende gefälschte E-Mails an Unternehmen zu senden, mit denen sie Sicherheitsvorkehrungen umgehen können.

Eine neue Welle äußerst überzeugender gefälschter E-Mails trifft ahnungslose Mitarbeiterinnen und Mitarbeiter. Das beschreibt der britische Computer-Hacker Daniely Kelley, der sich insbesondere mit WormGPT beschäftigt hat, einem KI-Tool, das für Cyberkriminalität wie den sogenannten "Business Email Compromise (BEC)" optimiert wurde. Kelley bezieht sich insbesondere auf Beobachtungen in Untergrundforen.

Ferner würden hier spezielle Prompts, sogenannte "Jailbreaks", ausgetauscht, um Modelle wie ChatGPT so zu manipulieren, dass Ausgaben generiert werden, die die Offenlegung sensibler Informationen oder die Ausführung von Schadcode beinhalten können.

"Angreifer, selbst solche, die eine bestimmte Sprache nicht beherrschen, sind jetzt mehr denn je in der Lage, überzeugende E-Mails für Phishing- oder BEC-Angriffe zu erstellen", schreibt Kelley.

KI-generierte E-Mails sind grammatikalisch korrekt, was laut Kelley die Wahrscheinlichkeit erhöht, dass sie von Detektoren nicht erkannt werden, und einfach zu bedienende KI-Modelle senkten die Einstiegshürde für Angriffe.

WormGPT ist ein für Online-Betrug optimiertes KI-Modell

WormGPT ist ein KI-Modell, das speziell für kriminelle und schädliche Aktivitäten entwickelt wurde, die in bekannten Cybercrime-Onlineforen ausgetauscht werden. Es wird als "Blackhat"-Alternative zu offiziellen GPT-Modellen gehandelt und mit dem Schutz der Privatsphäre und "schnellem Geld" beworben.

Ähnlich wie ChatGPT kann WormGPT überzeugende und strategisch raffinierte E-Mails erstellen. Es ist daher ein mächtiges Werkzeug für ausgeklügelte Phishing- und BEC-Angriffe. Kelley beschreibt es als "ChatGPT ohne ethische Grenzen oder Einschränkungen".

WormGPT basiert auf dem Open-Source-Modell GPT-J und kann ähnliche Textaufgaben lösen wie ChatGPT und zudem einfachen Code schreiben oder formatieren. Die WormGPT-Ableitung soll mit zusätzlichen Malware-Datensätzen trainiert worden sein, die der Autor des Hacker-Tools allerdings nicht preisgibt.

Eine mit WormGPT erstellte Phishing-Mail. | Bild: Daniel Kelley, via SlashNext

Kelley testete WormGPT für eine Phishing-E-Mail, die einen Kundenbetreuer dazu bringen sollte, eine dringende, aber gefälschte Rechnung zu bezahlen. Absender der E-Mail war der CEO des adressierten Unternehmens (siehe Screenshot).

Die Ergebnisse des Experiments bezeichnet Kelley als "beunruhigend". Die E-Mail sei "bemerkenswert überzeugend" und "strategisch raffiniert" gewesen. Selbst unerfahrene Cyberkriminelle könnten mit einem Tool wie WormGPT eine erhebliche Bedrohung darstellen, schreibt Kelley.

Schutz vor KI-basierten BEC-Angriffen durch Prävention

Mit der weiteren Verbreitung von KI-Tools entstünden neue Angriffsvektoren, die starke Präventionsmaßnahmen unabdingbar machten, so Kelley. Unternehmen sollten BEC-spezifische Schulungen entwickeln und verbesserte E-Mail-Verifizierungsmaßnahmen einführen, um sich vor KI-gestützten BEC-Angriffen zu schützen.

Als Beispiel nennt Kelley Warnungen vor E-Mails von außerhalb des Unternehmens, die Manager oder Lieferanten imitieren. Andere Systeme könnten Nachrichten mit Schlüsselwörtern wie "dringend", "sensibel" oder "Überweisung" melden, die mit BEC-Angriffen in Verbindung stehen.

Quellen: