Glaubt man den Prophezeiungen der Tech-Branche, dann wird Künstliche Intelligenz in Zukunft noch viel intelligenter. Dabei überfordert sie mit ihren komplexen Entscheidungsprozessen schon jetzt das menschliche Verständnis. Googles KI-Forscher Ali Rahimi sieht das kritisch: Er wünscht sich von seinen Kollegen mehr Willen zum Verständnis.
In einem Vortrag auf einer KI-Fachkonferenz im Dezember 2017 bezeichnete Rahimi Künstliche-Intelligenz-Anwendungen als eine neue Form der Alchemie. Alchemisten hätten mit Versuch und Irrtum neue Stoffe entdeckt und Medikamente entwickelt. Sie hätten aber auch viele falsche Theorien aufgestellt, die von der modernen Wissenschaft erst hätten widerlegt werden müssen.
So wie Alchemisten die Resultate ihrer Experimente häufig nicht verstanden hätten, wüssten KI-Forscher heute nicht, weshalb Algorithmen funktionieren oder versagen, zieht Rahimi die Parallele. Sie hätten keine klaren Kriterien für die Architektur eines neuronalen Netzes.
"Alchemie war ok, sie funktionierte irgendwie und hat Fortschritte gebracht", sagt Rahimi. Allerdings reiche bei Künstlicher Intelligenz eine ungefähre Vorstellung der Funktionsweise nicht mehr aus, da die Technologie die Gesellschaft grundlegend beeinflusse.
"Wir bauen Systeme, die unser Gesundheitssystem überwachen, die gesellschaftliche Diskussion vermitteln und Wahlen beeinflussen", sagt Rahimi. Er wünsche sich, dass solche Systeme auf verifizierbaren Berechnungen und nachvollziehbaren Entscheidungen basierten.
Alien-Technologie in Menschenhand
Das Wissenschaftsmagazin Science (via Telepolis) berichtet über eine neue Publikation von Rahimi, in der er seine Sorge konkretisiert. "Viele von uns haben das Gefühl, dass sie mit einer Alien-Technologie experimentieren", sagt Rahimi und meint sich und seine KI-Forscherkollegen.
Rahimi geht es dabei nicht in erster Linie um das Blackbox-Problem von KI-Systemen - also dass bestimmte Operationen einer Künstlichen Intelligenz aufgrund ihrer Komplexität nicht mehr verstehbar sind - sondern um die intersubjektive Nachvollziehbarkeit von KI-Experimenten.
Forscher könnten ihre Ergebnisse gegenseitig nicht überprüfen, da klare wissenschaftliche Richtlinien fehlten. Sie optimierten ihre Systeme für Resultate statt für das Verständnis.
Bestimmte Methoden würden rein nach dem Versuch-und-Irrtum-Prinzip angewandt, ohne dass ein tieferes Verständnis für ihre Funktionsweise existiere. So würde die komplette KI-Disziplin zu einer Blackbox.
Anstatt Künstliche Intelligenz für Bestmarken in Tests zu optimieren, fordert Rahimi, sollten Forscher ihre neuronalen Netze in ihre Einzelteile zerlegen, die Details untersuchen und ihre Ergebnisse kleinteilig und besser nachvollziehbar dokumentieren.