Anzeige
Skip to content

Ex-Tesla-KI-Chef Andrej Karpathy gibt KI-Start-ups vier Tipps für den Wettbewerb mit OpenAI und Co.

Image description
Nano Banana Pro prompted by THE DECODER

Kurz & Knapp

  • Andrej Karpathy, ehemaliger KI-Chef von Tesla, sieht im KI-Code-Editor Cursor den Beweis für eine neue Kategorie von Anwendungen, die Sprachmodelle für spezifische Branchen bündeln und orchestrieren.
  • Laut Karpathy erfüllen solche "LLM-Apps" vier zentrale Funktionen: Sie bereiten den Kontext für Sprachmodelle auf, verknüpfen mehrere LLM-Aufrufe zu komplexen Ketten, bieten anwendungsspezifische Oberflächen und ermöglichen Nutzern, den Grad der KI-Autonomie selbst zu bestimmen.
  • Start-ups können sich laut Karpathy durch private Daten, spezialisierte Werkzeuge und Rückmeldungen aus der echten Welt differenzieren.

Andrej Karpathy sieht in Cursor den Beweis für eine neue Kategorie von KI-Anwendungen. Start-ups sollten sich nicht als Konkurrenten der großen Sprachmodell-Labore verstehen, sondern als Spezialisten für vertikale Märkte.

Seit dem Aufkommen von Apps, die Sprachmodelle der großen KI-Labore nutzen, gibt es die Diskussion um sogenannte "AI Wrapper": Anwendungen, die zwar für bestimmte Aufgaben oder Zielgruppen optimiert sind, deren Fähigkeiten im Kern aber aus den verbundenen Sprachmodellen stammen. Ist damit eine ausreichende Marktdifferenzierung möglich?

Der ehemalige KI-Chef von Tesla, Andrej Karpathy, hat jetzt seine Einschätzung zur Zukunft solcher KI-Start-ups dargelegt. Besonders bemerkenswert findet er den Aufstieg von Cursor, dem KI-gestützten Code-Editor. Das Tool habe überzeugend eine neue Schicht von "LLM-Apps" offenbart, so Karpathy. Inzwischen spreche man von "Cursor für X" - ein Zeichen dafür, dass sich hier ein neues Paradigma etabliert.

Vier Funktionen definieren die neue App-Schicht

Laut Karpathy bündeln und orchestrieren LLM-Apps wie Cursor Sprachmodell-Aufrufe für spezifische Branchen. Er identifiziert dabei vier zentrale Funktionen: Erstens übernehmen diese Apps das sogenannte "Context Engineering" - sie bereiten den Kontext für das Sprachmodell auf.

Anzeige
DEC_D_Incontent-1

Zweitens orchestrieren sie unter der Haube mehrere LLM-Aufrufe, die zu komplexen Verarbeitungsketten verknüpft werden. Dabei wägen sie Performance- und Kosten-Trade-offs sorgfältig ab.

Drittens bieten LLM-Apps eine anwendungsspezifische Benutzeroberfläche für den Menschen und stellen viertens einen "Autonomie-Regler" bereit: Der Nutzer kann selbst bestimmen, wie viel Kontrolle er abgibt und wie selbstständig die KI agieren soll.

Die Debatte: Wie viel Raum bleibt für Start-ups?

In der KI-Branche wird 2025 intensiv diskutiert, wie "dick" diese neue App-Schicht tatsächlich ist. Die zentrale Frage: Werden die großen Sprachmodell-Labore wie OpenAI, Anthropic oder Google alle Anwendungen selbst abdecken, oder gibt es Spielraum für spezialisierte Anbieter?

Karpathy vermutet, dass die LLM-Labore dazu tendieren werden, den "generell fähigen College-Studenten" auszubilden – also vielseitige, aber nicht spezialisierte Modelle. LLM-Apps hingegen würden Teams dieser Modelle organisieren, feintunen und zu eingesetzten Profis in spezifischen Branchen machen.

Anzeige
DEC_D_Incontent-2

Der Schlüssel dazu seien private Daten, Werkzeuge zum Handeln und Rückmeldungen aus der echten Welt. Wer einer KI nicht nur Informationen liefern, sondern sie auch Dinge tun lassen kann – etwa Bestellungen auslösen, Nachrichten verschicken oder Maschinen steuern –, hat laut Karpathy gute Chancen, sich gegen die großen Labore zu behaupten.

Die werden allerdings nicht bereitwillig abrücken: OpenAI hat unmissverständlich klargemacht, dass das Unternehmen die gesamte KI-Wertschöpfungskette abdecken will, vom Chip bis zur App. Auch Anthropic und Google entwickeln ihre KI-Chatbots laufend weiter, sodass sie immer mehr Alltagsaufgaben übernehmen können.

KI-News ohne Hype – von Menschen kuratiert

Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar"‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.

Quelle: Karpathy Blog