Inhalt
summary Zusammenfassung

"Die Zahl der Vorfälle im Zusammenhang mit dem Missbrauch von KI steigt rapide an." Das ist eine der zentralen Aussagen, die im Artificial Intelligence Index Report 2023 zu lesen sind.

Anzeige

Das in diesem Jahr rund 400 Seiten starke Werk gilt als einer der vertrauenswürdigsten Berichte über den Status quo von Künstlicher Intelligenz und wurde nun zum sechsten Mal von der Stanford University veröffentlicht.

Kein einziges Mal im ersten Bericht von 2017, doch ganze 21 Mal im diesjährigen Report erwähnen die Autor:innen das Wort "Deepfake". Ein ganzes Kapitel widmen sie dem Thema "Technische KI-Ethik".

Der Anstieg der gemeldeten Vorfälle ist wahrscheinlich ein Beleg für die zunehmende Verflechtung von KI mit der realen Welt und ein wachsendes Bewusstsein für die Möglichkeiten des ethischen Missbrauchs von KI. Der dramatische Anstieg wirft auch eine wichtige Frage auf: In dem Maße, wie das Bewusstsein gewachsen ist, hat sich auch die Verfolgung von Vorfällen und Schäden verbessert - was darauf hindeutet, dass ältere Vorfälle möglicherweise nicht ausreichend gemeldet werden.

AI Index Report 2023

Und das ist kein Zufall: Laut der unabhängigen AIAAIC-Datenbank, die Vorfälle im Zusammenhang mit dem ethischen Missbrauch von KI verfolgt, sei die Anzahl der KI-Vorfälle zwischen 2012 und 2021 um das 26-fache gestiegen.

Anzeige
Anzeige
Bild: AI Index Report 2023

Finale Zahlen zu 2022 liegen noch nicht vor, da die Datenbankeinträge einem langwierigen Verifizierungsprozess unterzogen werden. Zudem sei aber von einer hohen Dunkelziffer in den ersten Jahren der Nachverfolgung auszugehen.

Ein im März 2022 veröffentlichtes Deepfake-Video, in dem vermeintlich der ukrainische Präsidenten Wolodymyr Selenskyj seine Truppen zur Aufgabe aufruft, nennen die Autor:innen als ein Beispiel mit einer besonders hohen Reichweite.

Bild: VERIFY

Weitere Vorfälle, die Ethik-Fragen aufwerfen

Aber auch abseits von Deepfakes hat der Einsatz von KI in der jüngeren Vergangenheit zu Diskussionen über den ethischen Umgang geführt. So gebe es Berichte, dass in US-Gefängnissen Telefongespräche mithilfe von KI überwacht worden seien. Dabei sei zudem aufgefallen, dass die Spracherkennung bei Schwarzen Personen weniger genaue Transkripte lieferte, obwohl ein Großteil der Häftlinge in den USA Schwarz ist.

Überwachung spielt nicht nur bei Strafgefangenen eine Rolle, und sie findet nicht nur im Verborgenen statt. Ganz offen geht etwa der IT-Riese Intel damit um, dass er für das Videokonferenztool Zoom eine Software entwickelt hat, die Emotionen wie “gelangweilt”, “abgelenkt” oder “verwirrt” aus den Gesichtern von Schüler:innen ablesen soll.

Schließlich taucht in dieser beunruhigenden Reihe auch Midjourney auf - stellvertretend für alle KI-Bildgeneratoren, einschließlich DALL-E 2 und Stable Diffusion. Die Systeme werfen laut dem Bericht ethische Fragen bezüglich Fairness, Bias, Copyright, Arbeitsplätzen und Datenschutz auf.

Empfehlung

Unerwähnt bleibt allerdings die Fähigkeit, fotorealistische Bilder zu erzeugen, die zuletzt etwa in Bezug auf Papst Franziskus oder Donald Trump für Schlagzeilen gesorgt hat.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Die Zahl der Missbrauchsfälle von KI hat sich in den letzten Jahren vervielfacht, zeigt ein umfassender Bericht.
  • Dies hänge mit der zunehmenden Verzahnung von KI mit der realen Welt und auch einem gestiegenen Bewusstsein für den Missbrauch von KI zusammen.
  • Nicht nur Deepfakes werfen ethische Fragen auf.
Jonathan ist Technikjournalist und beschäftigt sich stark mit Consumer Electronics. Er erklärt seinen Mitmenschen, wie KI bereits heute nutzbar ist und wie sie im Alltag unterstützen kann.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!