Inhalt
summary Zusammenfassung

Sicherheitsforscher sehen in KI-generiertem Code eine neue potenzielle Gefahr für Software-Lieferketten, ausgelöst durch "Slopsquatting".

Anzeige

Der Begriff „Slopsquatting“, geprägt vom Sicherheitsforscher Seth Larson, beschreibt eine Angriffsform, bei der Angreifer Schadpakete unter erfundenen Namen veröffentlichen – Namen, die von KI-Modellen wie ChatGPT oder CodeLlama häufig fälschlich vorgeschlagen werden. Anders als beim bekannten „Typosquatting“ basieren diese Namen nicht auf Tippfehlern bekannter Bibliotheken, sondern auf Paketnamen, die die KI frei „halluziniert“.

Das Problem entsteht, weil generative KI-Modelle beim Schreiben von Code oft auch Bibliotheken vorschlagen, die gar nicht existieren. In einer im März 2025 veröffentlichten Studie zeigte sich, dass rund 20 Prozent der analysierten KI-Codebeispiele (insgesamt 576.000 Python- und JavaScript-Snippets) nicht existierende Pakete enthielten. Auch etablierte Tools wie ChatGPT-4 halluzinieren in etwa 5 Prozent der Fälle, bei Open-Source-Modellen wie DeepSeek, WizardCoder oder Mistral ist die Quote teilweise deutlich höher. Neuere Modelle hat das Team bisher nicht getestet, Halluzinationen sind jedoch auch bei den besten Modellen immer noch ein Problem.

Diese halluzinierten Paketnamen klingen oft plausibel. Entwickler, die KI-generierten Code übernehmen, könnten versuchen, solche Pakete zu installieren, ohne zu merken, dass sie nicht existieren. Angreifer könnten genau diese erfundenen Namen in Repositorien wie PyPI oder npm registrieren und Schadcode darunter veröffentlichen. Wird so ein Paket installiert, gelangt der Schadcode in die Software – ohne Warnung. Da viele Entwickler sich auf KI-Code verlassen oder ihn automatisch verarbeiten, kann so ein Einfallstor für Angriffe entstehen.

Anzeige
Anzeige

Halluzinationen sind vorhersehbar - und daher für Angreifer interessant

Besonders kritisch: Die Studie zeigt, dass 58 Prozent der halluzinierten Paketnamen mehrfach bei ähnlichen Anfragen vorkamen. Das macht sie vorhersehbar und damit für Angreifer besonders interessant. Socket, ein auf Open-Source-Sicherheit spezialisiertes Unternehmen, warnt, dass diese Muster ein „vorhersehbares Angriffsziel“ darstellen. 38 Prozent der halluzinierten Namen ähnelten echten Paketen, 13 Prozent waren Tippfehler, der Rest reine Erfindung.

Um sich zu schützen, empfehlen Forscher mehrere Maßnahmen: Paketnamen nie ungeprüft übernehmen, Versionsnummern festlegen (Lockfiles), Hash-Prüfungen nutzen und KI-generierten Code stets in isolierten Umgebungen testen. Zudem kann die Reduzierung der sogenannten „Temperatur“ – ein KI-Parameter, der die Zufälligkeit der Ausgabe steuert – Halluzinationen verringern.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Sicherheitsforscher warnen vor „Slopsquatting“: Angreifer nutzen erfundene Paketnamen, die KI-Modelle halluzinieren, um Schadcode zu verbreiten.
  • In einer Analyse enthielten 20 Prozent der KI-generierten Codebeispiele nicht existierende Pakete, bei ChatGPT-4 lag die Rate bei 5 Prozent.
  • Da viele Namen vorhersehbar sind, raten Experten zu Lockfiles, Hash-Prüfungen und isolierten Tests für KI-Code.
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!