Inhalt
summary Zusammenfassung

In einem neuen Whitepaper analysiert Microsoft das wachsende Problem von KI-generierten Betrug, Kindesmissbrauch, Desinformation und nicht-einvernehmlichen Bildern. Der Tech-Konzern skizziert einen umfassenden Ansatz mit Technologie, Kooperation und Gesetzgebung.

Anzeige

Laut einem Whitepaper von Microsoft werden die Möglichkeiten von generativer KI zunehmend für kriminelle Zwecke missbraucht. Dazu gehören KI-generierter Betrug, Kindesmissbrauchsmaterial, Wahlmanipulation durch Deepfakes und nicht-einvernehmliche intime Bilder, die überwiegend Frauen schaden.

"Wir dürfen nie vergessen, dass missbräuchliche KI reale Menschen auf tiefgreifende Weise betrifft", sagt Hugh Milward, Vice President External Affairs bei Microsoft.

In dem Paper, das sich insbesondere an die britische Politik richtet, schlägt das Unternehmen einen ganzheitlichen Lösungsansatz vor, der auf sechs Säulen basiert: eine starke Sicherheitsarchitektur, dauerhafte Provenienz- und Wasserzeichenwerkzeuge für Medien, modernisierte Gesetze zum Schutz der Menschen, robuste Zusammenarbeit zwischen Industrie, Regierungen und Zivilgesellschaft, Schutz der eigenen Dienste vor Missbrauch sowie Aufklärung und Bildung der Öffentlichkeit.

Anzeige
Anzeige

Konkrete Empfehlungen für die britische Politik

Das Whitepaper enthält konkrete Empfehlungen für die Politik in Großbritannien, um die Öffentlichkeit vor schädlichen KI-generierten Inhalten zu schützen. Microsoft fordert Maßnahmen in drei Bereichen:

Um das Vertrauen in digitale Inhalte zu stärken, sollten Anbieter von KI-Systemen gesetzlich verpflichtet werden, Nutzer darüber zu informieren, wenn sie mit einem KI-System interagieren. Zudem sollten sie den Stand der Technik bei Provenienz-Tools nutzen, um synthetische Inhalte zu kennzeichnen. Die Regierung sollte mit gutem Beispiel vorangehen und selbst Authentizitätsnachweise für ihre Medieninhalte verwenden.

Um Wahlen vor manipulierten KI-Inhalten zu schützen, braucht es laut Microsoft neue Gesetze, die betrügerische Darstellungen durch KI-Werkzeuge verbieten. Auch der rechtliche Rahmen zum Schutz von Kindern und Frauen vor Online-Ausbeutung müsse gestärkt werden, inklusive der Kriminalisierung der Erstellung sexueller Deepfakes. Durch generative KI seien die Zahlen entsprechender Bilder im Netz explodiert.

Um Fälle zu untersuchen und Opfer zu unterstützen, sollte zudem die Regierung neue öffentlich-private Partnerschaften bilden und mehr Fördermittel für Opferhilfeorganisationen bereitstellen. Das UK National Cyber Security Centre (NCSC) soll dabei eine führende Rolle bei der Entwicklung von Best Practices und Aufklärungskampagnen übernehmen.

Technologische Lösungen wie "Content Credentials"

Eine wichtige Rolle sollen auch Technologien spielen, die Metadaten speichert, ob Medien mit KI erstellt wurden. Ähnliche Projekte gibt es auch von Adobe. Solche Projekte sollen Menschen helfen zu erkennen, woher ein Bild stammt. Standards wie das von Microsoft eingesetzte  "Content Credentials" erfordere aber auch politische Maßnahmen und öffentliches Bewusstsein, um wirksam zu sein.

Empfehlung

Zudem kooperiert der Konzern mit Organisationen wie StopNCII.org bei der Entwicklung von Tools zur Erkennung und Entfernung missbräuchlicher Bilder.

Betroffene können sich über ein zentrales Meldeportal von Microsoft wehren. Für Jugendliche steht zusätzlich der "Take It Down"-Service des National Center for Missing & Exploited Children zur Verfügung.

"Wenn Menschen kein Vertrauen in KI haben, werden sie sie nicht nutzen. Dann gehen die Chancen verloren, Leben zum Besseren zu verändern", betont Milward. Der Missbrauch von KI sei ein globales Problem, das Millionen Menschen betreffe und nur durch kreative Zusammenarbeit aller Beteiligten gelöst werden könne.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Microsoft warnt in einem neuen Whitepaper vor dem zunehmenden Missbrauch von KI-Systemen für Betrug, Kindesmissbrauch und Desinformation. Der Konzern schlägt einen Sechs-Säulen-Ansatz vor, der Technologie, Gesetze und Zusammenarbeit verschiedener Akteure kombiniert.
  • Das Unternehmen fordert von der britischen Politik konkrete Maßnahmen: Anbieter sollen verpflichtet werden, KI-generierte Inhalte zu kennzeichnen, neue Gesetze sollen vor Wahlmanipulation schützen und öffentlich-private Partnerschaften sollen Opfer unterstützen.
  • Microsoft setzt auf technische Lösungen wie "Content Credentials" zur Kennzeichnung von KI-Inhalten und arbeitet mit Organisationen wie StopNCII.org zusammen. Betroffene können sich über ein zentrales Meldeportal wehren, Jugendliche über den "Take It Down"-Service.
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!