Inhalt
newsletter Newsletter

Glaubt man den Prophezeiungen der Tech-Branche, dann wird Künstliche Intelligenz in Zukunft noch viel intelligenter. Dabei überfordert sie mit ihren komplexen Entscheidungsprozessen schon jetzt das menschliche Verständnis. Googles KI-Forscher Ali Rahimi sieht das kritisch: Er wünscht sich von seinen Kollegen mehr Willen zum Verständnis.

Anzeige

In einem Vortrag auf einer KI-Fachkonferenz im Dezember 2017 bezeichnete Rahimi Künstliche-Intelligenz-Anwendungen als eine neue Form der Alchemie. Alchemisten hätten mit Versuch und Irrtum neue Stoffe entdeckt und Medikamente entwickelt. Sie hätten aber auch viele falsche Theorien aufgestellt, die von der modernen Wissenschaft erst hätten widerlegt werden müssen.

So wie Alchemisten die Resultate ihrer Experimente häufig nicht verstanden hätten, wüssten KI-Forscher heute nicht, weshalb Algorithmen funktionieren oder versagen, zieht Rahimi die Parallele. Sie hätten keine klaren Kriterien für die Architektur eines neuronalen Netzes.

"Alchemie war ok, sie funktionierte irgendwie und hat Fortschritte gebracht", sagt Rahimi. Allerdings reiche bei Künstlicher Intelligenz eine ungefähre Vorstellung der Funktionsweise nicht mehr aus, da die Technologie die Gesellschaft grundlegend beeinflusse.

Anzeige
Anzeige

"Wir bauen Systeme, die unser Gesundheitssystem überwachen, die gesellschaftliche Diskussion vermitteln und Wahlen beeinflussen", sagt Rahimi. Er wünsche sich, dass solche Systeme auf verifizierbaren Berechnungen und nachvollziehbaren Entscheidungen basierten.

Alien-Technologie in Menschenhand

Das Wissenschaftsmagazin Science (via Telepolis) berichtet über eine neue Publikation von Rahimi, in der er seine Sorge konkretisiert. "Viele von uns haben das Gefühl, dass sie mit einer Alien-Technologie experimentieren", sagt Rahimi und meint sich und seine KI-Forscherkollegen.

Rahimi geht es dabei nicht in erster Linie um das Blackbox-Problem von KI-Systemen - also dass bestimmte Operationen einer Künstlichen Intelligenz aufgrund ihrer Komplexität nicht mehr verstehbar sind - sondern um die intersubjektive Nachvollziehbarkeit von KI-Experimenten.

Forscher könnten ihre Ergebnisse gegenseitig nicht überprüfen, da klare wissenschaftliche Richtlinien fehlten. Sie optimierten ihre Systeme für Resultate statt für das Verständnis.

Bestimmte Methoden würden rein nach dem Versuch-und-Irrtum-Prinzip angewandt, ohne dass ein tieferes Verständnis für ihre Funktionsweise existiere. So würde die komplette KI-Disziplin zu einer Blackbox.

Empfehlung

Anstatt Künstliche Intelligenz für Bestmarken in Tests zu optimieren, fordert Rahimi, sollten Forscher ihre neuronalen Netze in ihre Einzelteile zerlegen, die Details untersuchen und ihre Ergebnisse kleinteilig und besser nachvollziehbar dokumentieren.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Weiterlesen über Künstliche Intelligenz:

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!