Künstliche Intelligenz schafft neue Möglichkeiten - auch für Kriminelle. Forscher haben eine Liste mit potenziell besonders schwerwiegenden KI-Verbrechen ermittelt und von Experten für Sicherheit und KI bewerten lassen.
Forscher der Universität London (UCL) stellen eine Liste mit 20 möglichen KI-gestützten Verbrechen vor. Diese kriminellen Potenziale Künstlicher Intelligenz ermittelten sie anhand von Forschungspapieren, Nachrichten und popkulturellen Medien.
"In dem Maße, in dem sich die Möglichkeiten der KI-basierten Technologien erweitern, wächst auch ihr Potenzial für kriminelle Ausbeutung. Um uns angemessen auf mögliche KI-Bedrohungen vorzubereiten, müssen wir herausfinden, was diese Bedrohungen sein könnten und wie sie sich auf unser Leben auswirken könnten", sagt der am Forschungspapier beteiligte Londoner Computerwissenschaftler Lewis Griffin.
Die Gefährlichkeit der gelisteten Verbrechen wurde bei einem zweitätigen Workshop "AI & Future Crime" von 31 Experten für KI und Sicherheit aus der Wissenschaft, aus Unternehmen sowie aus dem öffentlichen Sektor bewertet.
Die Teilnehmer des Workshops mussten
- das Ausmaß des Schadens eines KI-Verbrechens einschätzen,
- den möglichen Profit,
- wie leicht die KI-Technik zu bedienen
- und wie schwer sie zu stoppen ist.
Nach der Bewertung teilten die Forscher die KI-Verbrechen in die Bedrohungsszenarien "hoch", "mittel" und "niedrig" ein.
Deepfakes sind die größte Gefahr
Als besonders gefährlich schätzten die Workshop-Teilnehmer Deepfakes ein. Die KI-Technik soll eines Tages (fast) jedermann die glaubhafte Manipulation von Fotos und Videos ermöglichen: Die daraus resultierende Fake-Multimediaflut könnte die gesellschaftliche Kommunikation unterminieren. Die Gefahr von Deepfakes wurde in allen vier oben genannten Bewertungskategorien als hoch eingeschätzt.
Rachepornos sind ein schädliches Szenario, das andere sind Videos mit glaubhaft gefälschten Aussagen von Politikern oder Verantwortlichen aus der Wirtschaft. Das Resultat könnte ein generelles Misstrauen in die Beweiskraft von Fotos und Videos sein, insbesondere dann, wenn Erkennungsalgorithmen nicht mehr funktionen.
Autonome Autos sind gefährlicher als Killerroboter
Auch gezielt als Waffe eingesetzte autonome Autos sehen die Workshop-Teilnehmer als große Gefahr. Autos seien in den meisten Ländern deutlich einfacher verfügbar als Waffen oder Sprengstoff. Einzelne Personen könnten großen Schaden anrichten.
Militärische Killerroboter hingegen schaffen es nur in die mittlere Gefahrenkategorie. Allerdings räumten die Workshop-Teilnehmer hier fehlendes Wissen über militärische Pläne ein. In den Kategorien Schadensausmaß und Profit schätzten sie Killerroboter als große Gefahr ein.
Die folgende Auflistung enthält alle durch KI mögliche oder verstärkte Verbrechensszenarien, die in dem Workshop bewertet wurden.
KI-Verbrechen in der Gefahrenstufe "hoch"
- Deepfakes
- fahrerlose Fahrzeuge als Waffe
- maßgeschneidertes Phishing
- Störung von KI-gesteuerten Systemen
- Erpressung im großen Stil
- KI-gefälschte Fake-News
KI-Verbrechen in der Gefahrenstufe "mittel"
- Missbrauch von Militärrobotern
- Schlangenöl (Betrug mit Produkten ohne echte Funktion)
- Datenvergiftung (bspw. gezielt in Datensätze eingespeiste Vorurteile)
- lernbasierte Cyber-Angriffe
- autonome Angriffsdrohnen
- Verweigerung des Zugangs zu Online-Aktivitäten
- Gesichtserkennungssysteme austricksen / betrügen
- Manipulation von Finanz- oder Aktienmärkten
KI-Verbrechen in der Gefahrenstufe "niedrig"
- Einbrecher-Bots (bspw. durch autonome Miniaturroboter)
- Umgehen der KI-Erkennung
- durch KI gefälschte Internet-Bewertungen
- KI-unterstütztes Stalking
- Fälschung (bspw. Kunst oder Musik)
- Gezielte Ausnutzung von Vorurteilen in trainierten KI-Systemen (bspw. YouTube-Nutzer in Propaganda lotsen)
Quelle: University College London; Titelbild: Stefano Pollio bei Unsplash