In einem neuen Whitepaper analysiert Microsoft das wachsende Problem von KI-generierten Betrug, Kindesmissbrauch, Desinformation und nicht-einvernehmlichen Bildern. Der Tech-Konzern skizziert einen umfassenden Ansatz mit Technologie, Kooperation und Gesetzgebung.
Laut einem Whitepaper von Microsoft werden die Möglichkeiten von generativer KI zunehmend für kriminelle Zwecke missbraucht. Dazu gehören KI-generierter Betrug, Kindesmissbrauchsmaterial, Wahlmanipulation durch Deepfakes und nicht-einvernehmliche intime Bilder, die überwiegend Frauen schaden.
"Wir dürfen nie vergessen, dass missbräuchliche KI reale Menschen auf tiefgreifende Weise betrifft", sagt Hugh Milward, Vice President External Affairs bei Microsoft.
In dem Paper, das sich insbesondere an die britische Politik richtet, schlägt das Unternehmen einen ganzheitlichen Lösungsansatz vor, der auf sechs Säulen basiert: eine starke Sicherheitsarchitektur, dauerhafte Provenienz- und Wasserzeichenwerkzeuge für Medien, modernisierte Gesetze zum Schutz der Menschen, robuste Zusammenarbeit zwischen Industrie, Regierungen und Zivilgesellschaft, Schutz der eigenen Dienste vor Missbrauch sowie Aufklärung und Bildung der Öffentlichkeit.
Konkrete Empfehlungen für die britische Politik
Das Whitepaper enthält konkrete Empfehlungen für die Politik in Großbritannien, um die Öffentlichkeit vor schädlichen KI-generierten Inhalten zu schützen. Microsoft fordert Maßnahmen in drei Bereichen:
Um das Vertrauen in digitale Inhalte zu stärken, sollten Anbieter von KI-Systemen gesetzlich verpflichtet werden, Nutzer darüber zu informieren, wenn sie mit einem KI-System interagieren. Zudem sollten sie den Stand der Technik bei Provenienz-Tools nutzen, um synthetische Inhalte zu kennzeichnen. Die Regierung sollte mit gutem Beispiel vorangehen und selbst Authentizitätsnachweise für ihre Medieninhalte verwenden.
Um Wahlen vor manipulierten KI-Inhalten zu schützen, braucht es laut Microsoft neue Gesetze, die betrügerische Darstellungen durch KI-Werkzeuge verbieten. Auch der rechtliche Rahmen zum Schutz von Kindern und Frauen vor Online-Ausbeutung müsse gestärkt werden, inklusive der Kriminalisierung der Erstellung sexueller Deepfakes. Durch generative KI seien die Zahlen entsprechender Bilder im Netz explodiert.
Um Fälle zu untersuchen und Opfer zu unterstützen, sollte zudem die Regierung neue öffentlich-private Partnerschaften bilden und mehr Fördermittel für Opferhilfeorganisationen bereitstellen. Das UK National Cyber Security Centre (NCSC) soll dabei eine führende Rolle bei der Entwicklung von Best Practices und Aufklärungskampagnen übernehmen.
Technologische Lösungen wie "Content Credentials"
Eine wichtige Rolle sollen auch Technologien spielen, die Metadaten speichert, ob Medien mit KI erstellt wurden. Ähnliche Projekte gibt es auch von Adobe. Solche Projekte sollen Menschen helfen zu erkennen, woher ein Bild stammt. Standards wie das von Microsoft eingesetzte "Content Credentials" erfordere aber auch politische Maßnahmen und öffentliches Bewusstsein, um wirksam zu sein.
Zudem kooperiert der Konzern mit Organisationen wie StopNCII.org bei der Entwicklung von Tools zur Erkennung und Entfernung missbräuchlicher Bilder.
Betroffene können sich über ein zentrales Meldeportal von Microsoft wehren. Für Jugendliche steht zusätzlich der "Take It Down"-Service des National Center for Missing & Exploited Children zur Verfügung.
"Wenn Menschen kein Vertrauen in KI haben, werden sie sie nicht nutzen. Dann gehen die Chancen verloren, Leben zum Besseren zu verändern", betont Milward. Der Missbrauch von KI sei ein globales Problem, das Millionen Menschen betreffe und nur durch kreative Zusammenarbeit aller Beteiligten gelöst werden könne.