Inhalt
newsletter Newsletter
DEEP MINDS Podcast
Podcast über Künstliche Intelligenz und Wissenschaft
KI bei der Bundeswehr und der BWI | DEEP MINDS #16

KI-Forscher von Googles Deepmind wollen der Entscheidungsfindung einer Künstlichen Intelligenz auf die Spur kommen. Dafür zerstören sie gezielt einzelne Neuronen.

Wie eine Künstliche Intelligenz ihre Entscheidungen trifft, ist - wie beim menschlichen Intellekt - bestenfalls oberflächlich nachvollziehbar. Einzelne Parameter für die Entscheidungsfindung sind zwar bekannt, aber der zugrundeliegende neuronale Prozess ist zu komplex, um wirklich verstanden zu werden. KI-Forscher bezeichnen das als "Blackbox".

Deempinds KI-Spezialisten versuchten jetzt in einem Experiment, mehr Transparenz in den künstlichen Denkprozess zu bringen, indem sie gezielt einzelne Neuronen aus einem KI-Modell löschten. Dann beobachteten sie, wie die Künstliche Intelligenz darauf reagierte. Sie nennen das: "Die Auswirkungen von Schäden untersuchen." Die Methode ist von der Neurowissenschaft inspiriert.

Die Wissenschaftler löschten einfach zu interpretierende Neuronen, die gezielt auf einen einzelnen Input reagieren und sonst nichts - zum Beispiel auf ein Bild von einem Hund oder einer Katze. Sie entfernten auch sogenannte "verwirrende Neuronen", die scheinbar zufällig feuern und deren Aufgabe unbekannt ist. Das Ergebnis der Untersuchung überraschte sie selbst.

Anzeige
Anzeige
Das Schaubild zeigt den Unterschied zwischen einem eindeutigen und einem verwirrenden KI-Neuron. Bild: Deepmind
Das Schaubild zeigt den Unterschied zwischen einem eindeutigen und einem verwirrenden KI-Neuron. Bild: Deepmind

Eindeutig verwirrend

Die Forscher fanden heraus, dass es für den KI-Denkprozess keinen Unterschied macht, ob ein eindeutiges oder ein verwirrendes Neuron aus dem künstlichen Denknetz entfernt wird. Beide Neuronen seien offenbar gleich relevant für die KI.

Weshalb das so ist, wissen sie nicht, schlussfolgern aber, dass zukünftige Analysen von Deep-Learning-Netzen nicht nur einfach zu interpretierende Neuronen beachten dürften, sondern darüber hinaus forschen müssten.

Ihr zweites Ergebnis: Umso besser ein neuronales Netz antrainiertes Wissen generalisieren kann, desto weniger anfällig ist es für eine großflächige Neuronenlöschung. Rein auf Erinnerung spezialisierte KI-Netze sind im Vergleich stärker von einzelnen Neuronen abhängig.

Laut den Deepmind-Forschern können KI-Entwickler so herausfinden, ob ein neuronales Netz sich nur erinnert - für Deempind ist das "pfuschen" - oder wie gewünscht generalisiert. Letztlich soll die Neuronenzerstörung so dazu beitragen, besser generalisierende Künstliche Intelligenz zu entwickeln.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Weiterlesen über Künstliche Intelligenz:

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!