Inhalt
summary Zusammenfassung

Das Future of Humanity Institute (FHI) der Universität Oxford, eine der weltweit führenden Denkfabriken zu Themen wie Existenzrisiken und die Zukunft der Künstlichen Intelligenz, stellt seine Arbeit ein.

Das Future of Humanity Institute (FHI) der Universität Oxford wird nach fast 20 Jahren Tätigkeit geschlossen. Wie aus einem Abschlussbericht des langjährigen Forschers Anders Sandberg hervorgeht, fiel diese Entscheidung aufgrund bürokratischer Hürden seitens der philosophischen Fakultät.

Das 2005 von Professor Nick Bostrom gegründete Institut brachte Forscher aus verschiedenen Disziplinen zusammen. Ziel war es, technologische Entwicklungen zu antizipieren, die die menschliche Existenz fundamental verändern könnten.

Ermöglicht wurde die Gründung vor allem durch eine großzügige Spende des Unternehmers James Martin. Auch das Oxford Uehiro Centre for Practical Ethics unterstützte das Institut in seiner Anfangszeit. In den folgenden Jahren baute das FHI ein interdisziplinäres Netzwerk auf und etablierte sich als Vordenker in seinen Kernthemen.

Anzeige
Anzeige

Superintelligenz, Biosicherheit und eine verwundbare Welt

Eines der Hauptforschungsgebiete waren globale katastrophale Risiken und Existenzrisiken, also Bedrohungen, die zum Aussterben der Menschheit führen könnten. Viele heute verbreitete Konzepte wie der "Vulnerable World"-Hypothese gehen auf Arbeiten des FHI zurück. Auch Biosicherheit und Pandemievorsorge waren ein Schwerpunkt.

Einen besonderen Fokus legte das Institut früh auf die Zukunft der Künstlichen Intelligenz. Nick Bostroms Buch "Superintelligence" aus dem Jahr 2014 löste eine weltweite Debatte über die Risiken fortgeschrittener KI aus. In der Folge baute das FHI ein KI-Governance-Programm auf, das sich mit Regulierungsfragen beschäftigte. Weitere Themen waren die Sicherheit und Kontrollierbarkeit von KI-Systemen.

Andere Forschungsstränge befassten sich mit Ganzhirnemulation, "Longtermism", digitalen Bewusstseinen und der Suche nach außerirdischer Intelligenz. Auch angewandte Erkenntnistheorie und Entscheidungstheorie unter Unsicherheit gehörten zum Portfolio.

Future of Humanity Institute schließt, seine Ideen leben weiter

Viele Ideen und Konzepte des FHI fanden Eingang in Kultur und Politik. So beriet man das britische Parlament und die Vereinten Nationen. Einige Spin-offs wie das Centre for the Governance of AI machten sich eigenständig.

Trotz Erfolgen war das Institut zunehmend mit bürokratischen Hürden konfrontiert, so Sandberg. Fundraising und Einstellungen neuer Mitarbeiter seien blockiert worden. 2023 habe die Fakultät entschieden, auslaufende Verträge nicht zu verlängern. Am 16. April 2024 wurde das FHI offiziell geschlossen.

Empfehlung

Existenzielles Risiko Hochschulpolitik

Um die Schließung zu verhindern, hätte man möglicherweise mehr in die Hochschulpolitik und die sozialen Beziehungen investieren müssen, um eine dauerhafte und stabile Beziehung zur Fakultät aufzubauen, heißt es in der Veröffentlichung. Eine bessere Kommunikation und Zusammenarbeit mit der umliegenden akademischen Gemeinschaft hätte Missverständnisse vermeiden und eine stärkere Unterstützung für das FHI innerhalb der Universität fördern können, so Sandberg.

Das Erbe des Instituts lebe in den vielen Forschern und Organisationen weiter, die es inspiriert habe, so Sandberg. Ob es ein Nachfolgeprojekt geben wird, ist offen. Entscheidend sei, so die FHI-Mitglieder, sich auf die wirklich wichtigen Fragen der Menschheit zu konzentrieren - und Antworten zu finden, die einen Unterschied machen.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Das Future of Humanity Institute (FHI) der Universität Oxford, eine Denkfabrik zu Themen wie Existenzrisiken und die Zukunft der KI, stellt nach fast 20 Jahren seine Arbeit ein. Bürokratische Hürden seitens der philosophischen Fakultät werden als Grund genannt.
  • Das 2005 gegründete FHI brachte Forscher verschiedener Disziplinen zusammen, um technologische Entwicklungen zu antizipieren, die die menschliche Existenz fundamental verändern könnten. Forschungsgebiete waren unter anderem globale Risiken, Biosicherheit, KI-Governance und -Sicherheit.
  • Trotz Erfolgen und Beratung von Politik und UN war das Institut zunehmend mit Blockaden beim Fundraising und Einstellungen konfrontiert. Laut dem Forscher Anders Sandberg hätte man mehr in Hochschulpolitik und Beziehungen investieren müssen. Das Erbe des FHI lebe in den vielen inspirierten Forschern und Organisationen weiter.
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!