Inhalt
newsletter Newsletter

Der britische Tech-Forscher Kevin Ashton gilt als Erfinder des Begriffs "Internet der Dinge". Den Begriff Künstliche Intelligenz möchte er hingegen lieber nicht verwenden.

Im Interview mit der Frankfurter Allgemeinen Zeitung beschreibt Ashton den aus seiner Sicht wahrscheinlichen Werdegang des Internets der Dinge. Immer bessere Sensoren sollen immer präzisere Daten sammeln: "Erst im Rückblick wird einem bewusst, welches Ausmaß die Transformation tatsächlich hat", sagt Ashton.

Manuell kann die Menschheit diese Datenmengen nicht beherrschen, für die Interpretation braucht es Algorithmen. Zwar seien lernende Maschinen notwendig, so Ashton, als Künstliche Intelligenz wolle er die mathematischen Gleichungen aber nicht bezeichnen. Bei der Interpretation der Daten ginge es nur um eine Mustererkennung. Entscheidend seien die Menschen hinter den KI-Systemen.

"Menschen programmieren Software, die eigentlich nur nach Regelmäßigkeiten, Unregelmäßigkeiten und Korrelationen sucht. Aber die Algorithmen selbst müssen immer noch von Menschen entwickelt werden. [...] Als intelligent würde ich die Software allerdings nicht bezeichnen", sagt Ashton.

Anzeige
Anzeige

KI-Angst: Elon Musk und Stephen Hawking liegen falsch

Entsprechend kritisiert Ashton, dass Tech-Milliardär Elon Musk oder der bekannte Physiker Stephen Hawking mit ihren Warnungen vor den Gefahren der Künstlichen Intelligenz unnötige Panik verbreiten.

"Elon ist ein großartiger Unternehmer, aber er ist kein Computerwissenschaftler. Ähnlich verhält es sich mit Stephen Hawking. Er ist ein phantastischer Physiker, aber kein Informatiker. Ich denke, beide liegen falsch", sagt Ashton. Beide spielten mit der "Urangst vor dem Kontrollverlust" und beschwörten neue Monster herauf.

Die größere Gefahr sei, dass Menschen sich "zu sehr auf Algorithmen verlassen und vergessen, dass diese nichts weiter als Werkzeuge für Ziele sind, die wir festlegen."

Ähnlich äußert sich Googles KI-Chef John Giannandrea, der Fantasien über Killer-Roboter für Unsinn hält. Er warnt jedoch speziell vor Vorurteilen in Datensätzen, mit denen die lernenden Maschinen trainiert werden.

"Es ist wichtig, dass wir mit den Trainingsdaten sehr transparent umgehen und dass wir sie auf versteckte Vorurteile untersuchen, ansonsten bauen wir Systeme mit Vorurteilen", sagt Giannandrea der Webseite MIT Technology Review.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Empfehlung
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!