Inhalt
newsletter Newsletter

Der vieldiskutierte israelische Historiker Yuval Noah Harari befasst sich mit der vergangenen und zukünftigen Entwicklung der Menschheit. In einem Interview äußert er sich zu den Chancen und Gefahren Künstlicher Intelligenz.

Anzeige

Die drängendste Frage sei nicht, ob und wann Künstliche Intelligenz ein Bewusstsein erlange, meint Harari in einem Gespräch mit der TAZ. Die aus einer solchen Entwicklung resultierenden Fragen seien zwar philosophisch interessant, auf sie müssten jedoch zeitnah noch keine Antwort gegeben werden. Dafür sei die Technologie noch nicht weit genug.

Derzeit sei es wichtiger, über Jobverluste durch Roboter nachzudenken. "Um deinen Job zu übernehmen, müssen sie kein Bewusstsein haben, sie brauchen nicht mal superintelligent zu sein", sagt Harari. "Über die Frage, wie das den Arbeitsmarkt verändert, und über die Folgen für Gesellschaft und Politik, darüber muss wir jetzt nachdenken und nicht erst in zehn oder zwanzig Jahren."

KI muss den Menschen hacken

Die Automobilindustrie ist eine von zahlreichen Branchen, der eine KI-Revolution bevorsteht. In Zukunft würden KI-Algorithmen und nicht die Hardware die maßgebliche Komponente eines Autos sein.  "Autos sind fahrende Computer, der Motor ist Nebensache, das einzige Relevante ist der Computer", sagt Harari.

Anzeige
Anzeige

Damit ein Auto selbst fahren könne, bedürfe es einer Künstlichen Intelligenz, die Menschen richtig interpretiert und deren Verhalten voraussagt: "Das Auto muss den Unterschied kennen und einschätzen zwischen dem Verhalten eines Achtjährigen, eines Achtzehnjährigen und eines Achtzigjährigen, der sich der Straße nähert."

Dieser Ansatz zeige eine ganz andere Seite der KI-Revolution. "Die dreht sich nicht um Computerwissenschaft, sondern um Biologie. Es geht darum, Menschen zu hacken, um sie zu verstehen", sagt Harari. Dafür brauche es in erster Linie gute Statistiken, das heißt konkret: eine möglichst große Datenmenge.

Autoritäre Regime haben Vorteile im KI-Wettrüsten

Wer die größte Datenbank für KI-Training besitzt, kann die fortschrittlichste KI-Technologie entwickeln. Daraus wiederum resultieren wirtschaftliche und schlussendlich politische Macht. China habe in diesem Wettlauf entscheidende Vorteile.

"Die Chinesen haben eine Datenbasis von 1,4 Milliarden Menschen. Die werden also viel bessere Statistiken haben [...]. In Deutschland hat man diese ganzen Restriktionen wie den Schutz der Privatsphäre und der medizinischen Aufzeichnungen. Man kann den Leuten nicht einfach befehlen, ein DNA-Sample abzugeben. In China schon."

Autoritäre Regime könnten deshalb gegenüber liberalen Demokratien im Vorteil sein, meint Harari.

Empfehlung

KI als Antivirus fürs eigene Gehirn

Harari bezeichnet die Aufmerksamkeitsökonomie als den "ganz großen Kampf" unserer Zeit. Während KI heute in den Händen von Regierungen und Unternehmen ist, könnte sie in Zukunft von Bürgern genutzt werden, um die Wissensbildung und demokratische Prozesse zu stärken.

Harari denkt an persönliche KI-Helfer, die Informationsflüsse steuern und Fake News aussortieren und spricht in diesem Kontext von einem "Anti-Virus fürs Gehirn".

"Das Silicon Valley entwickelt keine solche Art von KI-Helfern, klar, aber genauso wie es einen Markt für Cybersecurity gibt, gibt es einen großen Markt für Cybersecurity des Verstands", sagt Hariri.

Weiterlesen zum Thema:

Quelle: TAZ

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Tomislav schreibt über Künstliche Intelligenz im Kontext der XR, Kunst und virtueller Wesen: Wie trägt KI zur Entwicklung von VR und AR bei, wie rekonstruiert und erweitert sie das menschliche Kunstschaffen und welche neue Formen des Geschichtenerzählens und der NPC-Interaktion ermöglicht sie?
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!