Ex-Tesla-KI-Chef Andrej Karpathy gibt KI-Start-ups vier Tipps für den Wettbewerb mit OpenAI und Co.
Kurz & Knapp
- Andrej Karpathy, ehemaliger KI-Chef von Tesla, sieht im KI-Code-Editor Cursor den Beweis für eine neue Kategorie von Anwendungen, die Sprachmodelle für spezifische Branchen bündeln und orchestrieren.
- Laut Karpathy erfüllen solche "LLM-Apps" vier zentrale Funktionen: Sie bereiten den Kontext für Sprachmodelle auf, verknüpfen mehrere LLM-Aufrufe zu komplexen Ketten, bieten anwendungsspezifische Oberflächen und ermöglichen Nutzern, den Grad der KI-Autonomie selbst zu bestimmen.
- Start-ups können sich laut Karpathy durch private Daten, spezialisierte Werkzeuge und Rückmeldungen aus der echten Welt differenzieren.
Andrej Karpathy sieht in Cursor den Beweis für eine neue Kategorie von KI-Anwendungen. Start-ups sollten sich nicht als Konkurrenten der großen Sprachmodell-Labore verstehen, sondern als Spezialisten für vertikale Märkte.
Seit dem Aufkommen von Apps, die Sprachmodelle der großen KI-Labore nutzen, gibt es die Diskussion um sogenannte "AI Wrapper": Anwendungen, die zwar für bestimmte Aufgaben oder Zielgruppen optimiert sind, deren Fähigkeiten im Kern aber aus den verbundenen Sprachmodellen stammen. Ist damit eine ausreichende Marktdifferenzierung möglich?
Der ehemalige KI-Chef von Tesla, Andrej Karpathy, hat jetzt seine Einschätzung zur Zukunft solcher KI-Start-ups dargelegt. Besonders bemerkenswert findet er den Aufstieg von Cursor, dem KI-gestützten Code-Editor. Das Tool habe überzeugend eine neue Schicht von "LLM-Apps" offenbart, so Karpathy. Inzwischen spreche man von "Cursor für X" - ein Zeichen dafür, dass sich hier ein neues Paradigma etabliert.
Vier Funktionen definieren die neue App-Schicht
Laut Karpathy bündeln und orchestrieren LLM-Apps wie Cursor Sprachmodell-Aufrufe für spezifische Branchen. Er identifiziert dabei vier zentrale Funktionen: Erstens übernehmen diese Apps das sogenannte "Context Engineering" - sie bereiten den Kontext für das Sprachmodell auf.
Zweitens orchestrieren sie unter der Haube mehrere LLM-Aufrufe, die zu komplexen Verarbeitungsketten verknüpft werden. Dabei wägen sie Performance- und Kosten-Trade-offs sorgfältig ab.
Drittens bieten LLM-Apps eine anwendungsspezifische Benutzeroberfläche für den Menschen und stellen viertens einen "Autonomie-Regler" bereit: Der Nutzer kann selbst bestimmen, wie viel Kontrolle er abgibt und wie selbstständig die KI agieren soll.
Die Debatte: Wie viel Raum bleibt für Start-ups?
In der KI-Branche wird 2025 intensiv diskutiert, wie "dick" diese neue App-Schicht tatsächlich ist. Die zentrale Frage: Werden die großen Sprachmodell-Labore wie OpenAI, Anthropic oder Google alle Anwendungen selbst abdecken, oder gibt es Spielraum für spezialisierte Anbieter?
Karpathy vermutet, dass die LLM-Labore dazu tendieren werden, den "generell fähigen College-Studenten" auszubilden – also vielseitige, aber nicht spezialisierte Modelle. LLM-Apps hingegen würden Teams dieser Modelle organisieren, feintunen und zu eingesetzten Profis in spezifischen Branchen machen.
Der Schlüssel dazu seien private Daten, Werkzeuge zum Handeln und Rückmeldungen aus der echten Welt. Wer einer KI nicht nur Informationen liefern, sondern sie auch Dinge tun lassen kann – etwa Bestellungen auslösen, Nachrichten verschicken oder Maschinen steuern –, hat laut Karpathy gute Chancen, sich gegen die großen Labore zu behaupten.
Die werden allerdings nicht bereitwillig abrücken: OpenAI hat unmissverständlich klargemacht, dass das Unternehmen die gesamte KI-Wertschöpfungskette abdecken will, vom Chip bis zur App. Auch Anthropic und Google entwickeln ihre KI-Chatbots laufend weiter, sodass sie immer mehr Alltagsaufgaben übernehmen können.
KI-News ohne Hype – von Menschen kuratiert
Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar"‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.
Jetzt abonnieren