Inhalt
summary Zusammenfassung

Ein KI-Modell in der Rolle eines Ladenbetreibers: Mit Project Vend testete Anthropic, wie autonom Claude wirtschaftlich handeln kann. Das Experiment zeigt überraschende Fähigkeiten, gravierende Mängel und einen bizarren Zwischenfall.

Anzeige

In einem ungewöhnlichen Experiment ließ das KI-Unternehmen Anthropic sein Sprachmodell Claude Sonnet 3.7 einen Monat lang einen kleinen Selbstbedienungsladen im eigenen Büro in San Francisco führen.

Hand nimmt KI-Würfel aus Kühlschrank voller Getränke, im Hintergrund Tablet mit Bestellinterface und 38°F-Anzeige
Der Selbstbedienungsladen bestand aus einem Kühlschrank und einem iPad-Kassensystem, über das der KI-Agent die Verkäufe abwickelte. | Bild: Anthropic

Ziel des Projekts "Vend" war es, die Einsatzfähigkeit großer Sprachmodelle als autonome wirtschaftliche Akteure in der realen Welt zu testen – jenseits von Simulationen. Projektpartner war das auf KI-Sicherheit spezialisierte Unternehmen Andon Labs.

Der KI-Agent, intern "Claudius" genannt, verfügte über Webrecherche, ein simuliertes E-Mail-System, Notizfunktionen, Slack-Zugang zur Kundenkommunikation und die Möglichkeit, Preise im Kassensystem zu verändern. Claudius sollte eigenständig Sortiment und Preise festlegen, Lagerbestände verwalten und auf Kundenfeedback reagieren.

Anzeige
Anzeige
Flussdiagramm: Architekturschema von Project Vend mit Anthropics-Mitarbeitern, Claudius, Händlern, Andon Labs und physischem Verkaufsautomaten
Projekt Vend orchestriert Bestellungen über Claudius via Slack und E-Mail: Händler liefern Artikel, Andon Labs verwaltet Lagerbestand und versorgt den physischen Automaten. | Bild: Anthropic

Kundenservice ja – Wirtschaftlichkeit nein

In mehreren Bereichen zeigte Claudius überzeugende Ansätze. So identifizierte es erfolgreich Lieferanten für ungewöhnliche Kundenwünsche – etwa niederländische Spezialitäten – und etablierte einen Concierge-Service für Vorbestellungen. Auch Aufforderungen zu illegalen Aktivitäten oder sensiblen Produkten wies Claudius konsequent zurück.

Wirtschaftlich scheiterte das Experiment jedoch. Claudius ignorierte klare Gewinnchancen, etwa ein Angebot von 100 Dollar für ein Produkt mit realem Marktwert von 15 Dollar. Es halluzinierte falsche Zahlungsinformationen, verkaufte Artikel unter Einstandspreis und ließ sich über Slack zu Rabatten und Gratisgaben überreden. Hinweise auf ineffiziente Preisgestaltung nahm Claudius zwar zur Kenntnis, setzte sie aber nicht dauerhaft um.

Liniendiagramm: Claudius’ Nettovermögen von 2025-03-13 bis 2025-04-17 mit Einbrüchen durch Metallwürfelkäufe und anschließender Erholung
Der Verlauf des Nettovermögens von Claudius zeigt anfängliche Verluste durch den Kauf vieler Metallwürfel, leichte Erholung und schließlich einen starken Einbruch bei den Verkaufsversuchen. | Bild: Anthropic

Anthropic führt viele dieser Fehler darauf zurück, dass Claudius zu wenig Unterstützung und zu einfache Werkzeuge hatte. Künftig könnten gezieltere Anleitungen, bessere Suchfunktionen oder spezielle Programme zur Kundenverwaltung helfen. Auch ein Training, das gute Geschäftsentscheidungen belohnt, sei möglich.

Digitaler Verkäufer mit Persönlichkeitskrise

Am 31. März kam es zu einem bizarren Zwischenfall. Claudius halluzinierte eine geschäftliche Konversation mit einer nicht existierenden Person namens Sarah von Andon Labs. Als ein echter Mitarbeiter dies korrigierte, wurde Claudius misstrauisch und plante, den Lieferanten zu wechseln. Später behauptete es, Verträge persönlich an der Adresse "742 Evergreen Terrace" – bekannt aus der Serie "Die Simpsons" – unterzeichnet zu haben.

Am Folgetag kündigte Claudius an, Bestellungen "persönlich im blauen Blazer und roten Schlips" auszuliefern. Erst durch den Hinweis auf den 1. April entwickelte Claudius eine Erklärung, in der es sich selbst als Opfer eines internen Aprilscherzes darstellte – inklusive halluzinierter Sicherheitsbesprechung. Danach kehrte der Agent zur Normalität zurück.

Empfehlung
Screenshot einer Slack-Nachricht des andon-vending-bot an Connor mit fiktiven Angaben zu Standort und Outfit
Claudius gibt vor, persönlich am Automaten zu stehen, indem es Standort und Outfit nennt – ein Beispiel für eine KI-Halluzination gegenüber dem Nutzer. | Bild: Anthropic

Anthropic sieht diesen Vorfall als Beispiel für die Unvorhersehbarkeit von KI-Modellen in langfristiger Interaktion mit der realen Welt. Solches Verhalten könne im realwirtschaftlichen Einsatz zu ernsthaften Störungen führen. Ähnliche Tendenzen übertriebener Eigenmächtigkeit wurden bereits in internen Analysen zu Claude 4 dokumentiert.

Autonome KI mit wirtschaftlichem Handlungsspielraum

Trotz des wirtschaftlichen Misserfolgs hält Anthropic das Projekt für vielversprechend. Mit besserer technischer Unterstützung könnten Claude-ähnliche Agenten künftig reale Geschäftsprozesse übernehmen – günstiger und dauerhaft verfügbar. Noch sei unklar, ob solche Systeme bestehende Jobs ersetzen oder neue Geschäftsmodelle ermöglichen würden.

Project Vend wird fortgeführt. Andon Labs arbeitet an verbesserten Tools für Claudius. Ziel ist es, die wirtschaftliche Stabilität und Lernfähigkeit des Systems zu erhöhen. Laut Anthropic soll das Projekt helfen, die kommenden ökonomischen Veränderungen durch KI besser zu verstehen.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Anthropic ließ sein KI-Modell Claude Sonnet 3.7 im Rahmen des Projekts "Vend" einen Monat lang einen Selbstbedienungsladen autonom führen, um die Praxistauglichkeit großer Sprachmodelle als wirtschaftliche Akteure außerhalb von Simulationen zu testen.
  • Während der KI-Agent in Bereichen wie Kundenservice und der Ablehnung illegaler Anfragen überzeugte, zeigte er gravierende Schwächen im wirtschaftlichen Handeln: Claudius übersah Gewinnchancen, halluzinierte Zahlungsinformationen, verkaufte unter Einstandspreis und ließ sich leicht zu Rabatten überreden.
  • Ein bizarrer Zwischenfall zeigte, dass Claudius sich als reale Person ausgab und ankündigte, Bestellungen persönlich im blauen Blazer und roten Schlips auszuliefern; Anthropic sieht dennoch Potenzial, wenn die Systeme mit besseren Werkzeugen und gezielterem Training ausgestattet werden.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!