Inhalt
newsletter Newsletter

Titelbild: Kai R. Joachim

Mit dem Maschinenethiker Prof. Dr. Oliver Bendel spreche ich über moralische, unmoralische und bewusste Maschinen und wie wir mit ihnen umgehen sollten.

Bendel ist studierter Philosoph und promovierter Wirtschaftsinformatiker. Er lehrt und forscht an der Schweizer Hochschule für Wirtschaft FHNW mit den Schwerpunkten Wissensmanagement, Wirtschafts-, Informations- und Maschinenethik.

Dort arbeitet er unter anderem an (un)moralischen Chatbots. Mehr dazu steht hier.

Anzeige
Anzeige

Schreiner / VRODO: Sie verstehen sich als Roboterphilosoph. Was macht der so?

Oliver Bendel: Ein Roboterphilosoph philosophiert über Roboter. Und über Künstliche Intelligenz. Und fühlt sich gut dabei. Als philosophischer Ethiker erforsche ich das Gute und das Böse, auch mit Blick auf Maschinen. Ich muss als Ethiker nicht das Gute in die Welt bringen. Als Mensch möchte ich das natürlich schon.

VRODO: Und wie wird man einer?

Oliver Bendel: Ein Schwerpunkt in meinem Philosophiestudium in den 80er Jahren war die Tierethik. Daneben habe ich mich mit Descartes und Hume und mit den Vorsokratikern beschäftigt, mit Leukipp und Demokrit. Die erste Atomtheorie, sehr spannend.

Nach meinem Abschluss in Philosophie und einem weiteren Studium in Informationswissenschaft habe ich in der Wirtschaftsinformatik promoviert.

Empfehlung

Heute vertrete ich Informationsethik und Maschinenethik. Beide Disziplinen verbinde ich wiederum mit der Tierethik, aus persönlichen Gründen zum Teil auch mit dem Tierschutz. Als Roboterphilosoph beschäftige ich mich mit ethischen, erkenntnistheoretischen und ontologischen Fragen rund um Roboter.

VRODO: Mit was für Fragen befasst man sich in der Maschinenethik?

Oliver Bendel: Die Maschinenethik hat moralische Maschinen oder maschinelle Moral zum Gegenstand. Wir entwickeln auch unmoralische Maschinen, die wir aber lieber im Labor behalten.

Manchmal wird es mir in der Ethik zu eng. Bei manchen Fragestellungen genügt es eben nicht, die moralische Seite zu betrachten. Man muss ergänzende philosophische Arbeit leisten.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Mich interessiert zum Beispiel die Robotersteuer. Oder die Roboterquote. Und die Gestaltung, in Bezug auf das Aussehen und die Stimme, mit Blick darauf, was der Mensch ist und tut. Zuweilen ergeben sich in diesen Zusammenhängen ethische Fragen – aber die Perspektive ist weiter.

VRODO: Welchen Erkenntnisgewinn versprechen Sie sich von Ihrer Arbeit?

Oliver Bendel: Zunächst einmal wollen wir innerhalb der Maschinenethik möglichst viele Artefakte (von Menschen hergestellte Gegenstände, Anm. Red.) erzeugen.

Die Maschinenethik ist wie die Wirtschaftsinformatik eine Gestaltungsdisziplin. Unsere Softwareroboter tragen dazu bei, die Maschinenethik zu entwickeln, wie auch unsere Hardwareroboter – letztes Jahr haben wir Ladybird gebaut, den Prototyp eines tierfreundlichen Saugroboters. Kurzum: Wir erfahren durch unsere Artefakte etwas darüber, wie die Moral in die Maschine kommt.

Je nach Projekt gibt es einen spezifischen Erkenntnisgewinn.

VRODO: Und welcher ist das bei Ihren Chatbots?

Oliver Bendel: Mit dem Goodbot haben wir schon bestimmte Transparenzprinzipien umgesetzt. Er macht deutlich, dass er kein Mensch ist.

Nach dem Lügenbot-Projekt fällt es uns leichter, verlässliche, vertrauenswürdige Maschinen zu bauen, die sich aus verlässlichen Quellen bedienen. Der Chatbot konnte besonders gut lügen, wenn der Ausgangsstoff besonders gut war. Das war er aber nicht immer – also muss man Quellen aufbauen und anzapfen, die besser sind als Wikipedia und Co., auch um das Gegenteil einer Münchhausen-Maschine zu erhalten.

Der Bestbot zeigt uns, dass sich in einer moralischen Maschine eine unmoralische Maschine verstecken kann. Die Sicherheit, die er bietet, hat einen hohen Preis, nämlich die Freiheit: Gesichtserkennung und speziell Emotionserkennung sind ideal, um Menschen zu identifizieren, zu klassifizieren, zu analysieren, sie letztlich auszuspionieren.

Bei unserem System kann man sie immerhin ausschalten. Zudem kann man die Daten löschen lassen. Aber in der Realität würde ich einem solchen Chatbot nicht trauen. Man weiß nie, was und wer sich dahinter verbirgt. Mit solchen Problemen schlägt sich die Informationsethik herum.

VRODO: Roboter, Chatbots und andere Maschinen sind weder bewusst, noch fühlen sie etwas. Sie sind daher keine Objekte der Moral. In der Maschinenethik werden sie aber als Subjekte der Moral bezeichnet. Sie handeln jedoch nicht aus freiem Willen – sofern man überhaupt von Handlung sprechen kann. Wie können wir die Aktionen einer Maschine moralisch bewerten?

Oliver Bendel: Für mich sind Roboter oder Systeme der Künstlichen Intelligenz keine Objekte der Moral. Sie haben keine Rechte, und wir sollten nicht so tun, als hätten sie welche oder könnten welche bekommen. Sie sind aber in der Tat Subjekte der Moral, allerdings neuartige, fremdartige, merkwürdige. Man kann sie zum Beispiel schlecht zur Verantwortung ziehen.

Die Maschinen, die wir bauen, simulieren Moral oder bestimmte Aspekte von Moral. Wir pflanzen ihnen vor allem moralische Regeln ein, an die sie sich dann halten – wie Fundamentalisten. Das ist nicht schön, aber es funktioniert.

Das Wesentliche ist für mich der Unterschied zwischen einer normalen und einer moralischen Maschine. Ein normaler Saugroboter saugt alles ein, was sich in seinem Weg befindet. Ladybird verschont Marienkäfer. Eine einfache Regel führt dazu.

VRODO: Brauchen wir komplexe moralische Saugroboter?

Oliver Bendel: Technisch ist das schon recht komplex, aber moralisch relativ simpel. Wer Marienkäfer hasst, braucht eine solche Maschine nicht zu kaufen. So einfach ist das. Ladybird ist für mich eine Stellvertretermaschine mit einer Stellvertretermoral.

Im Moment sitze ich an sogenannten Moralmenüs. Damit kann man moralische Maschinen feinjustieren, sie noch besser an die persönliche Moral anpassen. Dieser Ansatz ist optimal in geschlossenen und halboffenen Welten, perfekt für Stellvertretermaschinen, die eine Stellvertretermoral haben sollen.

VRODO: Und in offenen Welten?

Oliver Bendel: In offenen Welten wird es suboptimal. Stellen Sie sich vor, jedes autonome Auto hätte eine individuelle Moral. Ich bin insgesamt gegen ein autonomes Auto, das moralische Entscheidungen mit Blick auf Leben und Tod von Menschen trifft. Solche moralischen Maschinen, die sich durch die ganze Welt bewegen und so tun, als wären sie wir, finde ich entsetzlich.

Allerdings habe ich einen Ausweg gefunden, um mich in der Maschinenethik doch mit autonomen Autos beschäftigen und zugleich meinem Gewissen folgen zu können.

Ich habe ihnen auf dem Papier beigebracht, für Tiere zu bremsen, nicht nur für große, sondern auch für kleine, wenn die Luft rein ist und die Straßen leer sind. Meine Autos helfen Kröten und Igeln.

VRODO: Wendell Wallach und Colin Allen forschen an Künstlichen Moralischen Akteuren (AMA). In einem Aufsatz von 2011 kommen sie zu dem Schluss, dass ein solcher bewusst sein müsste, um immer dynamisch wünschenswertes Verhalten zu zeigen. Was halten sie davon?

Oliver Bendel: Ich bezeichne die Artefakte, die wir gebaut haben, als moralische oder unmoralische Maschinen. Für mich sind das technische Begriffe, um den Unterschied zu normalen Maschinen deutlich zu machen. Meinetwegen sind sie Metaphern, und was wir im Moment machen, ist gewiss nur eine Simulation.

Aber, immer wieder, der springende Punkt ist, dass die Maschinen, die wir bauen, anders sind. Ich bin der Meinung, dass wir vor allem moralische Maschinen bauen sollten, die stur bestimmten Regeln folgen. Ich gehöre zu den Göttern, die ihre Fundamentalisten schätzen. Die moralischen Maschinen sollen sich gar nicht anpassen und entwickeln. Wissenschaftlich wäre das interessant, praktisch problematisch.

VRODO: Glauben Sie, wir werden moralische Maschinen nur erleben, wenn sie bewusst sind?

Oliver Bendel: Empathie, Bewusstsein, Intelligenz und Moral fallen tatsächlich zusammen. Sie machen den Homo sapiens aus. Aber will man wirklich Maschinen mit solchen Fähigkeiten? Sie könnten einerseits eine bessere Moral und vor allem eine bessere Moralität haben. Denn wir Menschen haben ja oft moralische Einsichten, ohne dass sich unser Handeln danach ausrichtet.

Andererseits können solche Maschinen gefährlich sein. Die maschinelle Moral, der man freien Lauf lässt, ist vielleicht noch skurriler als die menschliche. Ja, ich finde die menschliche Moral in einigen Aspekten skurril. Aber sie ist, wie sie ist. Dazu können die Psychologen mehr sagen als die Philosophen.

VRODO: Werden wir bewusste Maschinen erleben?

Oliver Bendel: Für mich gehört zum Bewusstsein, dass eine innere Stimme ausruft: Ah, das ist ja die Welt! Diese innere Stimme kann auch ein Tier haben. Jeder Igel, jede Kröte hat Bewusstsein.

Zum Selbstbewusstsein gehört, dass die innere Stimme ausruft: Ah, das bin ja ich! Ein Affe hat Selbstbewusstsein. Ich denke nicht, dass wir ein echtes Bewusstsein von Maschinen schaffen können. Auf jeden Fall wird der Roboter nie mit seiner inneren Stimme ausrufen: Ah, das bin ja ich, der Roboter! „I, Robot“ – das ist Science-Fiction.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!