Anzeige
Skip to content

FraudGPT kann Phishing-Mails schreiben und Malware entwickeln

Image description
Midjourney prompted by THE DECODER

FraudGPT ist ein unregulierter Chatbot. Er verbreitet sich im Darknet und wird von Kriminellen genutzt, um Phishing-E-Mails zu schreiben und Malware zu entwickeln.

"Die Bedrohungslandschaft im Cyberspace hat sich durch die Entwicklung generativer KI-Modelle stark verändert", sagt Netenrich-Forscher Rakesh Krishnan. Kürzlich entdeckte das Forschungsteam von Netenrich in Darknet-Foren und Telegram-Kanälen Hinweise auf eine Software namens FraudGPT.

Dabei handelt es sich um einen unmoderierten KI-Chatbot für kriminelle Zwecke, der mindestens seit dem 22. Juli 2023 auf Marktplätzen im Umlauf sein soll.

Laut Produktbeschreibung hilft FraudGPT Cyberkriminellen dabei, Phishing-E-Mails zu schreiben, Cracking-Tools zu entwickeln und Kreditkarten zu fälschen. Es hilft sogar, die besten Ziele mit den leichtesten Opfern zu finden. Die folgenden Screenshots zeigen Beispiele.

Anzeige
DEC_D_Incontent-1

Bild: Netenrich
Bild: Netenrich
Bild: Netenrich

Welche Technik genau hinter FraudGPT steckt, geht aus dem Eintrag auf dem Darknet-Marktplatz nicht hervor. Die Screenshots lassen vermuten, dass FraudGPT über eine eigens erstellte Weboberfläche zugänglich ist.

Ab 200 US-Dollar pro Monat

Das FraudGPT-Tool wird laut Netenrich auf verschiedenen Marktplätzen angeboten. Der Entwickler namens "CanadianKingpin" verlangt 200 US-Dollar pro Monat, bietet aber Rabatte für drei- oder sechsmonatige Abonnements. Zwölf Monate Zugang zu FraudGPT kosten 1.700 US-Dollar.

Der Anbieter scheint in der Szene kein Unbekannter zu sein und wirbt damit, bereits mehr als 3.000 Verkäufe auf Untergrundplattformen abgewickelt zu haben.

KI dient auch der Cyber-Kriminalität

Die Einführung von FraudGPT folgt auf WormGPT, ein Sprachmodell, das angeblich mit Malware-Daten trainiert wurde.

Anzeige
DEC_D_Incontent-2

Beide Tools sind Beispiele dafür, wie Cyberkriminelle KI-Technologien für illegale Aktivitäten nutzen können. Da Modelle wie ChatGPT einfach per Sprache instruiert werden, sinkt die Einstiegshürde für Cyberkriminelle. Auch weniger technikaffine oder sprachlich weniger versierte Personen könnten etwa Malware generieren oder Phishing-Mails verfassen.

Betreiber von Chatbots wie Claude, ChatGPT oder Bard unternehmen große Anstrengungen, um zu verhindern, dass ihre Technologien für böswillige Zwecke missbraucht werden. Sie reagieren immer wieder auf neue Taktiken, um die KI zu überlisten und zum Beispiel dazu zu bringen, Schadcode oder Phishing-Mails zu produzieren.

Dies gilt jedoch nur für kommerzielle Anbieter. Mit dem Aufkommen von immer leistungsfähigeren Open-Source-Modellen lässt sich die kriminelle Nutzung von KI kaum noch eingrenzen.

KI-News ohne Hype – von Menschen kuratiert

Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar“‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.

KI-News ohne Hype
Von Menschen kuratiert.

  • Mehr als 20 Prozent Launch-Rabatt.
  • Lesen ohne Ablenkung – keine Google-Werbebanner.
  • Zugang zum Kommentarsystem und Austausch mit der Community.
  • Wöchentlicher KI-Newsletter.
  • 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
  • Bis zu 25 % Rabatt auf KI Pro Online-Events.
  • Zugang zum kompletten Archiv der letzten zehn Jahre.
  • Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.
The Decoder abonnieren