Inhalt
summary Zusammenfassung

Eine Untersuchung des Cybersicherheits-Start-ups Lasso Security zeigt, dass mehr als 1.500 HuggingFace-API-Token frei zugänglich sind, darunter auch solche von Meta.

Anzeige

Eine kürzlich durchgeführte Untersuchung der für Entwickler wichtigen Plattform HuggingFace hat ergeben, dass mehr als 1.500 API-Token frei zugänglich sind. Laut Lasso Security, einem Start-up-Unternehmen, das sich auf Cybersicherheit für Sprachmodelle und andere generative KI-Modelle spezialisiert hat, macht dies Millionen von Nutzern von Meta Llama, Bloom und Pythia anfällig für potenzielle Angriffe.

HuggingFace ist eine wichtige Ressource für Entwickler, die an KI-Projekten, etwa mit Sprachmodellen, arbeiten. Die Plattform bietet eine umfangreiche Bibliothek von KI-Modellen und Datensätzen, darunter auch die weit verbreiteten Llama-Modelle von Meta.

Die HuggingFace-API ermöglicht es Entwicklern und Organisationen über API-Token, Modelle zu integrieren und Repositories oder Dateien darin zu lesen, zu erstellen, zu verändern und zu löschen. Wer die API-Token kennt, erhält somit oft einen weitreichenden Zugriff.

Anzeige
Anzeige

Lasso Security erhält vollen Zugriff auf Meta-Repositories

Das Team durchsuchte GitHub- und HuggingFace-Repositories mit deren Suchfunktion nach offengelegten API-Tokens. Gemäß den Best Practices, etwa von OpenAI, sollten API-Token aus genau diesem Grund nicht direkt im Code hinterlegt werden.

Das Team von Lasso Security fand bei seiner Suche 1.681 Token und konnte Accounts von großen Organisationen wie Meta, Microsoft, Google und VMware aufdecken. Die Daten ermöglichten dem Team auch vollen Zugriff auf die weit verbreiteten Repositories von Meta Llama, Bloom, Pythia und HuggingFace.

Die Offenlegung einer so großen Anzahl von API-Tokens berge erhebliche Risiken für Organisationen und ihre Nutzer. Lasso nennt einige der wichtigsten Gefahren, die mit offengelegten API-Tokens verbunden sind:

1. Supply-Chain-Schwachstellen: Wenn potenzielle Angreifer vollen Zugriff auf Konten wie Meta Llama2, BigScience Workshop und EleutherAI erhielten, könnten sie bestehende Modelle manipulieren und sie möglicherweise in bösartige Entitäten umwandeln, so das Team. Dies könnte Millionen von Nutzern betreffen, die sich auf diese grundlegenden Modelle für ihre Anwendungen verlassen.

2. Training Data Poisoning: Mit Schreibzugriff auf 14 Datensätze mit zehntausenden und hunderttausenden Downloads pro Monat könnten Angreifer vertrauenswürdige Datensätze manipulieren, die Integrität von darauf basierenden KI-Modellen beeinträchtigen und weitreichende Folgen haben.

Empfehlung

3. Modell-Diebstahl: Das Team gibt an, sich mit der Methode Zugang zu mehr als zehntausend privaten KI-Modellen und mehr als 2.500 Datensätzen verschafft zu haben, was zu potenziellen wirtschaftlichen Verlusten, beeinträchtigten Wettbewerbsvorteilen und möglicherweise Zugang zu sensiblen Informationen führen könnte.

Team gibt Sicherheitstipps an Nutzer und HuggingFace

Um diese Sicherheitslücken zu schließen, wird Entwicklern empfohlen, nicht mit fest codierten Token zu arbeiten und Best Practices zu befolgen. HuggingFace sollte außerdem kontinuierlich Scans auf öffentlich offengelegte API-Token durchführen und diese entweder widerrufen oder Nutzer und Organisationen über die offengelegten Token informieren.

Organisationen sollten auch eine Token-Klassifizierung in Betracht ziehen und Sicherheitslösungen implementieren, die IDEs und Code-Reviews inspizieren, die speziell zum Schutz ihrer Investitionen in LLM entwickelt wurden. Wenn diese Probleme umgehend angegangen werden, können Organisationen ihre Abwehrmaßnahmen stärken und die Bedrohungen, die von diesen Schwachstellen ausgehen, abwenden.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Eine Untersuchung von Lasso Security zeigt, dass über 1.500 HuggingFace-API-Token, darunter auch solche von Meta, frei zugänglich sind, was Millionen von Nutzern von Meta Llama, Bloom und Pythia anfällig für Angriffe mache.
  • Die offengelegten API-Token bergen erhebliche Risiken, so Lasso, wie Supply-Chain-Schwachstellen, Training Data Poisoning und Modell-Diebstahl, die weitreichende Folgen für Organisationen und ihre Nutzer haben könnten.
  • Um Sicherheitslücken zu schließen, sollten Entwickler Best Practices befolgen, HuggingFace regelmäßig Scans durchführen und Organisationen Sicherheitslösungen implementieren, die speziell zum Schutz ihrer Investitionen in KI-Modelle entwickelt wurden.
Quellen
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!