Inhalt
summary Zusammenfassung

In einem ausführlichen Interview wehrt sich Anthropic-CEO Dario Amodei gegen Kritik, erklärt seine persönliche Motivation für KI-Sicherheit und gibt detaillierte Einblicke in die umstrittene Geschäftsstrategie seines Unternehmens, das bewusst unrentabel arbeitet.

Anzeige

Dario Amodei, CEO des KI-Unternehmens Anthropic, hat in einem Interview mit dem "Big Technology Podcast" ausführlich zu den drängendsten Fragen der KI-Branche Stellung bezogen. Er wehrte sich energisch gegen Kritik von Branchengrößen, legte die Philosophie seines Unternehmens dar und erklärte, warum er trotz Warnungen vor den Risiken kein "Doomer" sei.

Amodeis Philosophie und persönliche Motivation

Der Tod seines Vaters sei eine treibende Kraft für seine Haltung zu KI, so Amodei. Sein Vater verstarb 2006 an einer Krankheit, für die nur wenige Jahre später eine Heilungsmethode entwickelt wurde, die die Heilungsrate von 50 auf 95 Prozent steigerte. Diese Erfahrung habe ihm die Dringlichkeit der positiven Anwendungsmöglichkeiten von KI vor Augen geführt. Er werde "sehr wütend", wenn man ihn als "Doomer" bezeichne, der die Entwicklung verlangsamen wolle. "Ich verstehe den Nutzen dieser Technologie", betonte Amodei. Gerade weil das Potenzial für eine bessere Welt so groß sei, fühle er sich verpflichtet, vor den Risiken zu warnen. Er wirft einigen "Beschleunigern" vor, keinen "humanistischen Sinn für den Nutzen der Technologie" zu haben, sondern von Adrenalin getrieben zu sein.

Diese tief persönliche Überzeugung prägte auch seine beruflichen Entscheidungen, insbesondere seinen viel diskutierten Weggang von OpenAI lange vor der späteren Eskalation, die zur kurzfristigen Entlassung und anschließenden Wiedereinberufung von OpenAIs CEO Sam Altman führte. Sein Abgang sei nicht auf technische Differenzen zurückzuführen, sondern auf einen fundamentalen Vertrauensverlust in die Aufrichtigkeit der Führung. Obwohl er dort das GPT-3-Projekt leitete, sei ihm klar geworden, dass die entscheidenden Weichenstellungen – etwa zu Governance, Sicherheitsstudien und Veröffentlichungsstrategien – von der Unternehmensspitze getroffen werden. "Wenn man für jemanden arbeitet, dessen Motivationen nicht aufrichtig sind, der keine ehrliche Person ist, der nicht wirklich die Welt verbessern will, wird es nicht funktionieren", sagte Amodei. Man trage dann nur zu "etwas Schlechtem" bei.

Anzeige
Anzeige

Amodei kritisierte im Interview auch mehrfach die Extrempositionen in der aktuellen KI-Debatte scharf als "intellektuell und moralisch unseriös". Auf der einen Seite stünden die "Doomer", die behaupteten, man könne logisch beweisen, dass KI nicht sicher gemacht werden könne. Ihre Argumente bezeichnete er als "Kauderwelsch" und "Nonsens". Auf der anderen Seite stünden Wirtschaftsführer, die auf "20 Billionen Dollar Kapital" säßen und Sicherheitsbedenken pauschal als Kontrollversuche abtäten. Deren Forderung, die Technologie zehn Jahre lang nicht zu regulieren, und ihre "flotten Ad-hominem-Angriffe" seien ebenso unseriös. Was gebraucht werde, seien "Nachdenklichkeit, Ehrlichkeit und mehr Leute, die bereit sind, gegen ihre eigenen Interessen zu handeln".

Geschäftsmodell und Strategie von Anthropic

Diese auf Sicherheit und Verantwortung ausgerichtete Mission muss sich jedoch in der harten Realität des KI-Marktes behaupten. Amodei gab dazu tiefe Einblicke in die unkonventionelle Geschäftsstrategie von Anthropic, die in weiten Teilen wohl auf große Teile der KI-Industrie zutrifft. Auf die Frage nach der Profitabilität erklärte er, dass das Unternehmen bewusst unrentabel arbeite, da jedes neue KI-Modell als massive Reinvestition in die Zukunft betrachtet werde. Er illustrierte dies mit einem Gedankenexperiment: Ein Modell, das 2023 für 100 Millionen Dollar trainiert wurde, könne 2024 einen Umsatz von 200 Millionen Dollar erzielen. Wenn das Unternehmen im selben Jahr aber eine Milliarde Dollar für das Training des Nachfolgemodells ausgebe, ergebe sich ein Verlust von 800 Millionen Dollar. "Jedes Modell ist profitabel, aber das Unternehmen ist jedes Jahr unprofitabel", so Amodei.

Der Fokus auf Unternehmenskunden treibe die Entwicklung intelligenterer KI dabei stärker voran als die Konzentration auf Endverbraucher. Ein Modell, das von einem "Bachelor- auf ein Doktoranden-Niveau in Biochemie" verbessert werde, sei für 99 Prozent der Verbraucher kaum von Interesse. Für ein Unternehmen wie Pfizer hingegen wäre dies "die größte Sache der Welt" und potenziell "zehnmal so viel wert". Dieser Anreiz, reale Probleme zu lösen, sei stärker auf die Entwicklung leistungsfähigerer Modelle ausgerichtet, was wiederum dem Ziel diene, die positiven Anwendungen der KI zu realisieren.

Der mit Abstand größte Kostenfaktor in der KI-Entwicklung sei daher nicht der laufende Betrieb der Modelle, sondern die Investition in das Training der nächsten Generation. Amodei schlüsselte die Kosten auf: Der Betrieb der Modelle, also die Inferenz, sei "bereits ziemlich profitabel". Auch Personal- und Gebäudekosten seien im Gesamtbild nicht entscheidend. Die Unrentabilität sei somit eine bewusste strategische Entscheidung, die darauf beruhe, dass man an die Fortsetzung der Skalierungsgesetze glaube und an der Spitze der technologischen Entwicklung bleiben wolle.

Kritik an Konkurrenten und der KI-Branche

Den Vorwurf von Nvidia-CEO Jensen Huang, er glaube, "er sei der Einzige, der dies sicher bauen kann und wolle deshalb die gesamte Branche kontrollieren", wies Amodei vehement zurück. "Ich habe nie etwas Derartiges gesagt. Das ist eine Lüge", so Amodei. Er konterte mit Anthropics Philosophie eines "Wettlaufs nach oben" ("race to the top"). Ziel sei es, positive Standards zu setzen. Als Beispiel nannte er die Veröffentlichung von Anthropics "Responsible Scaling Policy", die es Befürwortern in anderen Unternehmen "erlaubt" habe, ebenfalls für solche Richtlinien zu argumentieren. So entstehe eine Dynamik, bei der es "egal ist, wer gewinnt, denn alle gewinnen".

Empfehlung

Auch Mark Zuckerbergs Strategie zur Anwerbung von Talenten für Meta kritisierte Amodei scharf. Meta versuche, "etwas zu kaufen, das man nicht kaufen kann. Und das ist die Übereinstimmung mit der Mission." Laut Amodei hätten viele seiner Mitarbeiter hochdotierte Angebote von Meta abgelehnt, "ohne überhaupt mit Mark Zuckerberg zu sprechen". Anthropic habe sich bewusst dagegen entschieden, auf diese Angebote mit Gegenangeboten zu reagieren, um die auf Fairness basierende Unternehmenskultur nicht durch Panik zu zerstören. Er sei "ziemlich pessimistisch" bezüglich des Erfolgs von Metas Ansatz.

Einsichten in die KI-Technologie und ihre Entwicklung

Die in der Branche vieldiskutierte Frage nach Open-Source-KI hält Amodei für ein "Ablenkungsmanöver". Das aus früheren Technologiezyklen bekannte Vokabular wie "Kommodifizierung" passe seiner Meinung nach nicht auf KI. Bei sogenannten "Open Weights"-Modellen könne man zwar die Gewichte sehen, aber nicht wirklich nachvollziehen, was im Inneren des Modells vor sich geht. Auch der von Open Source bekannte Vorteil, dass viele gemeinsam und additiv an Software arbeiten können, greife bei KI-Modellen nicht "auf die gleiche Weise". Für Amodei zählt letztlich nur die Qualität: Wenn ein neues Modell erscheine, frage er nicht nach der Lizenzform, sondern nur, ob es ein gutes Modell ist und ob es besser sei als das eigene.

Wie eng Fortschritt und Sicherheit bei KI miteinander verknüpft sind, zeigt für Amodei auch die Entstehungsgeschichte von GPT-2 und GPT-3 bei OpenAI. Diese Modelle seien ursprünglich als Nebenprodukt der Sicherheitsforschung entstanden. Amodei und seine späteren Mitgründer hatten die Methode des Reinforcement Learning from Human Feedback (RLHF) entwickelt, um KI-Modelle besser zu steuern. Da diese Technik bei den damaligen kleinen GPT-1-Modellen nicht funktionierte, sei die Skalierung zu GPT-2 und GPT-3 notwendig gewesen, um RLHF an komplexeren Modellen zu erproben und weiterzuentwickeln.

Vor diesem Hintergrund warnt Amodei davor, die Geschwindigkeit der KI-Entwicklung zu unterschätzen. Die meisten Menschen würden von der exponentiellen Entwicklung "getäuscht". Er zieht einen Vergleich zum Internet der 90er-Jahre: Wenn sich eine Technologie alle sechs Monate verdopple, wirke sie zwei Jahre vor dem Durchbruch, als sei sie erst am Anfang – doch der große Umbruch stehe dann bereits kurz bevor. Das rapide Umsatzwachstum bei Anthropic – von null auf über vier Milliarden Dollar Jahresumsatz in weniger als drei Jahren – sieht Amodei als Beleg für diese Dynamik.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Gleichzeitig bleibt Amodei trotz seines grundsätzlichen Optimismus realistisch. Er räumt eine "20- bis 25-prozentige Chance" ein, dass der Fortschritt bei KI-Modellen in den kommenden zwei Jahren zum Erliegen kommen könnte – etwa durch unbekannte technische Hürden oder Engpässe bei Daten und Rechenleistung. Sollte dieser Fall eintreten und seine Warnungen sich als unbegründet erweisen, habe er "absolut kein Problem damit", wenn man sich über ihn lustig mache.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Dario Amodei, CEO von Anthropic, erklärte im Big Technology Podcast, dass seine persönliche Motivation für sichere KI-Entwicklung auf der Erfahrung beruht, dass sein Vater an einer Krankheit starb, deren Heilung kurz darauf durch neue Technologien möglich wurde. Er kritisiert sowohl übertriebene Warnungen vor KI („Doomer“) als auch rein profitorientierte „Accelerationists“ als vereinfachend und fordert eine sachliche Debatte über Chancen und Risiken.
  • Amodei betont, dass Anthropic trotz profitabler KI-Modelle insgesamt unrentabel ist, da alle Einnahmen massiv in die Entwicklung der nächsten Modellgeneration investiert werden. Der Fokus liegt auf Unternehmenskunden, da diese komplexe Verbesserungen am stärksten nachfragen und honorieren, während die hohen Kosten vor allem durch das Training neuer Modelle entstehen.
  • In Bezug auf die Branche weist Amodei Vorwürfe zurück, er wolle ein Monopol aufbauen, und betont, dass Anthropic seine Sicherheitsforschung offenlegt, um die Standards insgesamt zu heben. Er sieht die Open-Source-Debatte als Ablenkung und verweist darauf, dass der exponentielle Fortschritt der KI oft unterschätzt wird, sieht aber eine 20- bis 25-prozentige Wahrscheinlichkeit, dass der Fortschritt stagnieren könnte.
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!