Inhalt
summary Zusammenfassung

KI wird immer effizienter? In einigen Bereichen mag das stimmen. Aber der Trainingsaufwand und die Kosten werden weiter explodieren, meint Anthropic-CEO Dario Amodei.

Mit Claude 3 Opus hat Anthropic als erster KI-Modell-Entwickler GPT-4 vom Thron gestoßen. Im Interview mit Ezra Klein spricht Amodei nun über die nahe und ferne Zukunft der KI-Entwicklung.

Er geht davon aus, dass die Kosten für das Training großer Sprachmodelle in den nächsten Jahren rapide ansteigen werden. Während sich die heutigen Modelle im Bereich von 100 Millionen Dollar bewegen, rechnet er für die nahe Zukunft mit Kosten in der Größenordnung von einer Milliarde Dollar. Diese Modelle seien schon in Entwicklung.

"Heute kosten die Modelle etwa 100 Millionen Dollar, bald werden es eine Milliarde und 2025 oder 2026 schließlich bis zu 10 Milliarden Dollar sein", sagt Amodei.

Anzeige
Anzeige

Den Grund dafür sieht der Anthropic-CEO in den sogenannten Skalierungsgesetzen. Diese besagen, dass KI-Systeme umso stärker werden, je mehr Rechenleistung und Daten in sie gepumpt werden. Der Zusammenhang sei vorhersagbar und sogar exponentiell.

Wenn die Vorhersagen der Skalierungsgesetze zutreffen, würden KI-Modelle in zwei bis fünf Jahren so leistungsfähig sein, dass sie nicht mehr von Menschen kontrolliert werden müssen oder können, glaubt Amodei. Die Art von Systemen, die wir uns in der Science-Fiction vorstellen, sieht Amodei eher in zwei bis fünf Jahren als in 20 oder 40 Jahren.

Sicherheitsrisiko Verlangsamung

Amodei sieht in einer Verlangsamung der Entwicklung keine Lösung. Um die Sicherheit der Systeme zu gewährleisten, müssten sie weiter skaliert und erforscht werden. Nur so könnten potenzielle Gefahren frühzeitig erkannt und Gegenmaßnahmen entwickelt werden. Einen Entwicklungsstopp hält er weder für realistisch noch für wünschenswert.

Gleichzeitig betont er aber auch die Verantwortung der führenden KI-Unternehmen. Mit zunehmender Leistungsfähigkeit der Modelle wachse auch die Macht, die in den Händen privater Unternehmen liege. Ab einem bestimmten Punkt, den Amodei in einigen Jahren erreicht sieht, müsse die Gesellschaft Wege finden, die Kontrolle über die zentralen Systeme demokratisch zu gestalten.

Als mögliche Gefahren für die Zukunft sieht Amodei unter anderem die Nutzung von KI für die Entwicklung biologischer Waffen oder für staatliche Desinformationskampagnen. KI-Systeme könnten schon bald in der Lage sein, die Fähigkeiten staatlicher Akteure in diesen Bereichen drastisch zu erhöhen, etwa durch eine hohe Überzeugungskraft in der Argumentation. Erste wissenschaftliche Studien bekräftigen diese These.

Empfehlung

Höchste Gefahrenstufe spätestens ab 2028

Auf einer Skala von 1 bis 4, die Anthropic intern zur Bewertung von KI-Risiken verwendet, ordnet Amodei diese Szenarien der Stufe 3 zu - eine Entwicklung, die seiner Meinung nach bereits in diesem oder im nächsten Jahr eintreten könnte.

Stufe 4, die höchste Gefahrenstufe, sieht der Anthropic-CEO zwischen 2025 und 2028 erreicht. Dann rechnet er mit KI-Systemen, die sich selbst replizieren und weiterentwickeln können. Dies würde völlig neue Kontrollfragen aufwerfen und könnte potenziell existenzielle Risiken mit sich bringen.

Auch jenseits solcher Extremszenarien sieht Amodei gesellschaftliche Herausforderungen. So sei ein starker Anstieg des Energieverbrauchs durch KI-Rechenzentren nicht auszuschließen. Auch ein disruptiver Einfluss auf den Arbeitsmarkt, bei dem KI-Systeme kontinuierlich die kognitiven Aufgaben von immer mehr Berufsgruppen übernehmen könnten, sei eine ernst zu nehmende Möglichkeit.

Trotz der Herausforderungen überwiegen für den Anthropic CEO die Chancen. KI-Systeme könnten in Zukunft bahnbrechende Fortschritte in Bereichen wie Medizin, Bildung oder Energieversorgung ermöglichen. Es gelte, Wege zu finden, diese Potenziale zu nutzen und gleichzeitig die Risiken zu kontrollieren.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Dario Amodei war mehrere Jahre als leitender Forscher bei OpenAI tätig. Zwei Jahre lang war er für die Arbeit des KI-Sicherheitsteams von OpenAI verantwortlich. Er und seine Schwester Daniela Amodei waren an der Entwicklung der KI-Sprache GPT-3 von OpenAI beteiligt. Gemeinsam arbeiteten sie fast sechs Jahre in den Forschungsteams von OpenAI, bevor sie Anthropic gründeten, um sich auch auf die KI-Sicherheitsforschung zu konzentrieren.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Dario Amodei, CEO von Anthropic, rechnet damit, dass die Kosten für das Training großer Sprachmodelle in den nächsten Jahren rapide ansteigen werden - von derzeit rund 100 Millionen Dollar auf bis zu 10 Milliarden Dollar im Jahr 2025 oder 2026.
  • In zwei bis fünf Jahren, so Amodei, werden KI-Modelle aufgrund sogenannter Skalierungsgesetze so leistungsfähig sein, dass sie nicht mehr von Menschen kontrolliert werden müssen oder können. Eine Verlangsamung der Entwicklung hält er aus Sicherheitsgründen für kontraproduktiv.
  • Mögliche Gefahren sieht Amodei unter anderem in der Nutzung von KI für die Entwicklung biologischer Waffen oder Desinformationskampagnen. Trotz Herausforderungen wie dem steigenden Energieverbrauch und den Auswirkungen auf den Arbeitsmarkt überwiegen für ihn die Chancen, etwa bahnbrechende Fortschritte in Medizin, Bildung oder Energieversorgung.
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!