Inhalt
newsletter Newsletter

Das Langzeit-Projekt AI100 der Stanford University untersucht den Fortschritt, die Herausforderungen, Risiken und Trends von Künstlicher Intelligenz im Laufe eines Jahrhunderts. Der Bericht soll in erster Linie künftige Entwicklungen im Bereich KI vorausschauend begleiten.

Der 82-seitige Bericht trägt den Titel „Gathering Strengths, Gathering Storms“ und wurde Mitte September dieses Jahres vom Institute for Human-Centered Artificial Intelligence der Stanford University in den USA veröffentlicht.

Der Bericht benennt richtungsweisende Fortschritte in der KI-Forschung. Gleichzeitig warnt er verstärkt vor den Risiken eines zu einseitigen und verantwortungslosen Umgangs mit den neuen Möglichkeiten der Technik, vorwiegend in Bezug auf soziale und ethische Fragen.

Das Jahrhundertprojekt „AI100“ wurde 2014 vom Informatiker und Stanford-Alumnus Eric Horvitz, Chief Scientific Officer bei Microsoft, ins Leben gerufen und von diesem sowie seiner Frau Mary finanziert.

Anzeige
Anzeige

Die mit Weitblick angelegte Studie hat den Vorteil, dass jeder Bericht auf dem vorigen aufbaut, sodass schrittweise Veränderungen und Entwicklungen im Verlauf eines jeweils fünfjährigen Zeitraums sichtbar werden. Weiterhin wirft die Studie für die KI-Entwicklung entscheidende Fragen auf.

Erster AI100-Bericht warnte 2016 noch vor zu viel Skepsis

Bereits der erste AI100-Bericht, veröffentlicht im September 2016, fand weitreichende Beachtung. Er ließ politische Diskussionen und Forderungen nach staatlichen Beratungsgremien und Workshops in vielen Ländern laut werden und wurde in vielen akademischen Lehrplänen erwähnt.

Bemerkenswerterweise räumte der Bericht jedoch jegliche Bedenken zu den unmittelbar absehbaren Gefahren von Künstlicher Intelligenz für die Menschheit aus dem Weg. Vielmehr wies er darauf hin, zu viel Skepsis und Vorsicht könnten wichtigen Aspekten wie Sicherheit und Verlässlichkeit sogar schaden.

Gleichwohl erklärte der Bericht, künftige KI-Technologien ließen sich nicht mit vollständiger Sicherheit vorhersagen, und dass die Auswirkungen von KI und zunehmender Automatisierung zu einer Spaltung der Gesellschaft führen könnten.

Ein Hauptkritikpunkt an der ersten Studie war, dass diese den Einsatz von KI für militärische Nutzungen völlig unbeachtet ließ. Außerdem war ihr Forschungshorizont stark begrenzt; der Fokus lag exemplarisch auf einer typischen Stadt im nordamerikanischen Raum.

Empfehlung

Zweiter AI100 Bericht mit interdisziplinärem Schwerpunkt

Ebenso wie der erste Bericht wurde auch der zweite, jüngst erschienene Bericht von einer ständigen Kommission erarbeitet, die seit 2016 jährlich zusammenkommt. Dieses Mal jedoch zusätzlich in Kooperation mit einem Team aus 17 interdisziplinären Forscher- und Insider:innen mit unterschiedlichen Schwerpunkten im Bereich KI.

Hierdurch soll ein breiterer, fachübergreifender Kreis aus Wissenschaftler:innen und Akteur:innen beteiligt werden, der neben Computerwissenschaftler:innen und Ingenieur:innen, auch die Ansichten von Expert:innen unter anderem aus den Bereichen Wirtschaft, Geschichte, Philosophie, Medien- und Rechtswissenschaften einbezieht. Somit sollte die Diskussion vertieft und wesentliche Fragen sollten unter ethischen und sozialen Gesichtspunkten betrachtet werden.

Zur Vorbereitung beauftragte die ständige Kommission im Jahr 2019 zwei Studienworkshops, die das Feedback auf den ersten Bericht auswerteten. Der erste durchgeführte Workshop trug den Titel „Prediction in Practice“ und untersuchte den Einsatz von KI-Technologien für Prognosen des menschlichen Verhaltens.

Der zweite Workshop, „Coding Caring“, analysierte die Herausforderungen und Möglichkeiten von KI im Bereich der Pflege und welche Rolle Gender- und Arbeitsbeziehungen in Hinblick auf Innovationen im Gesundheitswesen spielen.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Viele Fragen für die Zukunft Künstlicher Intelligenz

In der Langzeitstudie AI100, die nun erstmals die gesellschaftlichen und sozialen Auswirkungen von KI weltweit in den Blick nimmt, wurden zwölf Fragen thematisiert und genauer untersucht. Diese zwölf Themenschwerpunkte sollen auch in künftigen AI100-Studien richtungsweisend sein. Zu ihnen zählen unter anderem:

  • Welche Bilder stehen exemplarisch für den Fortschritt und die Auswirkungen Künstlicher Intelligenz?
  • Was sind die wichtigsten Fortschritte im Bereich KI?
  • Worin bestehen die größten inspirierenden Herausforderungen?
  • Wie weit sind wir in unserem Verständnis von menschlicher Intelligenz?
  • Was sind die Aussichten für eine allgemeinere Künstliche Intelligenz?
  • Wie hat sich die öffentliche Meinung über KI entwickelt und wie kann man die Öffentlichkeit besser informieren?
  • Was können Regierungen unternehmen, um eine verantwortungsvolle Entwicklung und Verwendung von Künstlicher Intelligenz zu gewährleisten?
  • Was sind die vielversprechendsten Potenziale und größten Risiken?

Der Bericht erscheint für vier unterschiedliche Zielgruppen: Der Öffentlichkeit will er eine verständliche und technisch wie wissenschaftlich präzise Einordnung der aktuellen Forschungslage und des Potenzials von Künstlicher Intelligenz bieten.

Die Industrie soll über relevante Technologien sowie wichtige technische und rechtliche Herausforderungen informiert werden.

Lokale, nationale und internationale Regierungen will er eine Handreichung beim Einplanen von KI in der Staatsführung sein.

Schließlich will er auch KI-Forscher:innen und akademische Institutionen darin unterstützen, Prioritäten zu setzen und die wirtschaftlichen, sozialen und rechtlichen Auswirkungen zu berücksichtigen.

KI ist im Alltag an einem bemerkenswerten Wendepunkt angekommen

Laut des Berichts hat es bei KI in den letzten fünf Jahren gravierende Veränderungen gegeben. Insbesondere im privaten Gebrauch würde es dringend einen kritischen Blick auf die eingesetzten KI-Technologien benötigen. So sei KI in Bereichen wie Filmempfehlungen, Sprachassistenten, beim autonomen Fahren oder bei medizinischen Diagnosen im Alltag angekommen.

„Innerhalb der letzten fünf Jahre hat sich KI weg von einer Technologie entwickelt, die primär in Forschungslaboren oder stark kontrollierten Umgebungen stattfindet und hin zu einem Phänomen, das Teil der Gesellschaft geworden ist und Einzug in den Alltag der Menschen gehalten hat“, beschreibt Computerwissenschaftler Michael Littmann einen Wendepunkt der Technologie. Littman ist Vorsitzender der ständigen Kommission von AI100 und lehrt an der Brown University.

Die KI-Technologie vollbrächte mittlerweile Dinge, von denen wir noch vor einigen Jahren nur träumen konnten, so Littmann. Gleichzeitig müsse man mit den sozialen Folgen dieser Technologien umgehen lernen. Nun käme es darauf an, die Vorteile von KI zu maximieren und die Nachteile und Risiken möglichst gering zu halten.

Gebündelte KI-Expertise kann Gefahren reduzieren

Zu den Risiken gehörten unter anderem sogenannte Deepfakes – mit KI gefälschte Bilder, Audiobeiträge oder Videos, die gezielt eingesetzt werden können, um etwa dem Ruf einzelner Personen zu schaden oder falsche Informationen zu verbreiten.

Ein weiteres Problem ist der sogenannte algorithmische Bias, wenn eine KI mit den subjektiven Vorurteilen von Menschen vorprogrammiert ist und diese Vorurteile sogar noch weiterspinnt. Mustererkennungssysteme wie Gesichtserkennungsverfahren können unsere Privatsphäre verletzen, wenn sie Daten aus unterschiedlichen Quellen zusammenführen.

Um die Risiken zu reduzieren, müssen Computerwissenschaftler:innen dem Bericht zufolge künftig verstärkt mit Expert:innen aus Sozialwissenschaften und Regierungen zusammenarbeiten und adäquate Gesetze auf den Weg bringen. Künstliche Intelligenz solle stets Hand in Hand mit menschlicher Expertise agieren.

Privatpersonen müssten ein entsprechendes Verständnis entwickeln und die Rolle von KI in ihrem Leben kritisch hinterfragen, um selbstständig mit der noch neuen Technologie umgehen zu lernen.

Hier könnten Regierungen entsprechende Bildungsmaßnahmen im Schulwesen vorsehen und Forschungsergebnisse der Allgemeinheit sachlich und leicht verständlich zugänglich machen. Auch sollte die nicht kommerzielle Perspektive, etwa der akademischen Welt oder von NGOs, eine wichtigere Rolle spielen und stärker unterstützt werden.

Kritik an AI100: Was ist mit KI im Militär?

Ein Kritikpunkt am AI100-Bericht bleibt, dass er den Einsatz von KI in militärischen Anwendungen weitestgehend ausblendet. Nur an einigen Stellen finden sich Kommentare, die das gegenseitige Wechselspiel von KI einerseits sowie geopolitischen Interessen und internationalen Sicherheitsmanövern andererseits anerkennen.

Insbesondere die akademische Welt beobachtet diesen kontroversen Aspekt seit längerem mit großen Bedenken. So haben etwa Investitionen des US-Verteidigungsministeriums den KI-Fortschritt in den vergangenen fünf Jahren maßgeblich vorangetrieben.

Auch über die wirtschaftliche Bedeutung von KI-Technologien herrscht noch Uneinigkeit. Dem Bericht zufolge kommt KI in der Wirtschaft bislang eine geringe Bedeutung zu – primär gemessen an den bisherigen Erwartungen.

Dem widerspricht jedoch Oren Etzioni, CEO des Allen Institute for Artificial Intelligence in Seattle, der am ersten AI100-Bericht mitgewirkt hat. Etzioni zufolge unterschätzt die Studie die wirtschaftlichen Auswirkungen von KI-Technologien, die bereits heute wichtige Komponenten in Produkten von Apple, Amazon, Google und anderen großen Firmen ausmachen.

Weiterlesen über Künstliche Intelligenz

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Sarah ist Mathematikerin, Programmiererin und Teilzeit-Philosophin. Ihr Fokus liegt auf den ethischen und gesellschaftlichen Zukunftsfragen von Künstlicher Intelligenz.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!