KI in der Praxis

FraudGPT kann Phishing-Mails schreiben und Malware entwickeln

Jonathan Kemper
Süße KI-Illustration von einem roten Fisch, der aus einem Laptop-Bildschirm herausguckt.

Midjourney prompted by THE DECODER

FraudGPT ist ein unregulierter Chatbot. Er verbreitet sich im Darknet und wird von Kriminellen genutzt, um Phishing-E-Mails zu schreiben und Malware zu entwickeln.

"Die Bedrohungslandschaft im Cyberspace hat sich durch die Entwicklung generativer KI-Modelle stark verändert", sagt Netenrich-Forscher Rakesh Krishnan. Kürzlich entdeckte das Forschungsteam von Netenrich in Darknet-Foren und Telegram-Kanälen Hinweise auf eine Software namens FraudGPT.

Dabei handelt es sich um einen unmoderierten KI-Chatbot für kriminelle Zwecke, der mindestens seit dem 22. Juli 2023 auf Marktplätzen im Umlauf sein soll.

Laut Produktbeschreibung hilft FraudGPT Cyberkriminellen dabei, Phishing-E-Mails zu schreiben, Cracking-Tools zu entwickeln und Kreditkarten zu fälschen. Es hilft sogar, die besten Ziele mit den leichtesten Opfern zu finden. Die folgenden Screenshots zeigen Beispiele.

Bild: Netenrich
Bild: Netenrich
Bild: Netenrich

Welche Technik genau hinter FraudGPT steckt, geht aus dem Eintrag auf dem Darknet-Marktplatz nicht hervor. Die Screenshots lassen vermuten, dass FraudGPT über eine eigens erstellte Weboberfläche zugänglich ist.

Ab 200 US-Dollar pro Monat

Das FraudGPT-Tool wird laut Netenrich auf verschiedenen Marktplätzen angeboten. Der Entwickler namens "CanadianKingpin" verlangt 200 US-Dollar pro Monat, bietet aber Rabatte für drei- oder sechsmonatige Abonnements. Zwölf Monate Zugang zu FraudGPT kosten 1.700 US-Dollar.

Der Anbieter scheint in der Szene kein Unbekannter zu sein und wirbt damit, bereits mehr als 3.000 Verkäufe auf Untergrundplattformen abgewickelt zu haben.

KI dient auch der Cyber-Kriminalität

Die Einführung von FraudGPT folgt auf WormGPT, ein Sprachmodell, das angeblich mit Malware-Daten trainiert wurde.

Beide Tools sind Beispiele dafür, wie Cyberkriminelle KI-Technologien für illegale Aktivitäten nutzen können. Da Modelle wie ChatGPT einfach per Sprache instruiert werden, sinkt die Einstiegshürde für Cyberkriminelle. Auch weniger technikaffine oder sprachlich weniger versierte Personen könnten etwa Malware generieren oder Phishing-Mails verfassen.

Betreiber von Chatbots wie Claude, ChatGPT oder Bard unternehmen große Anstrengungen, um zu verhindern, dass ihre Technologien für böswillige Zwecke missbraucht werden. Sie reagieren immer wieder auf neue Taktiken, um die KI zu überlisten und zum Beispiel dazu zu bringen, Schadcode oder Phishing-Mails zu produzieren.

Dies gilt jedoch nur für kommerzielle Anbieter. Mit dem Aufkommen von immer leistungsfähigeren Open-Source-Modellen lässt sich die kriminelle Nutzung von KI kaum noch eingrenzen.