Die Umstellung von Alexa auf generative KI erweist sich als komplex. Amazon steht vor der Herausforderung, unzuverlässige KI-Modelle mit den hohen Anforderungen an einen Verbraucher-Sprachassistenten zu vereinbaren.
Amazon arbeitet seit zwei Jahren daran, das "Gehirn" seines Sprachassistenten Alexa komplett zu erneuern. Amazons Vision ist es, Alexa von einem einfachen Assistenten für Musik und Wecker zu einem personalisierten Concierge weiterzuentwickeln. Die KI soll etwa Restaurants vorschlagen oder die Beleuchtung basierend auf dem Schlafrhythmus einer Person steuern.
Generative KI-Modelle sollen dabei helfen. Eine erste Preview auf eine LLM Alexa rollte Amazon bereits im Herbst 2023 aus. Seitdem gibt es immer wieder Gerüchte über einen größeren Start, der bislang allerdings nicht passiert ist. Ein Grund ist die mangelnde Verlässlichkeit generativer KI, berichtet die Financial Times.
Rohit Prasad, Leiter des Teams für künstliche allgemeine Intelligenz (AGI) bei Amazon, nennt drei zentrale technische Hürden, die vor einem Marktstart überwunden werden müssen: Halluzinationen, Antwortgeschwindigkeit und Zuverlässigkeit. "Halluzinationen müssen nahe null sein", betont Prasad.
Halluzinationen, oder auch KI-Bullshit, sind dabei ein grundsätzliches und bisher ungelöstes Problem generativer KI. Diese falschen oder erfundenen Antworten sind keine Fehlfunktion im eigentlichen Sinne, sondern hängen mit der grundlegenden Funktionsweise der Systeme zusammen: Sie basieren auf Wahrscheinlichkeiten statt auf fest programmierten Regeln.
Verbraucher erwarten perfekte Zuverlässigkeit
Eine weitere Herausforderung liegt in der Kombination der alten, vordefinierten Alexa-Algorithmen mit den neuen, leistungsfähigeren, aber weniger vorhersehbaren Sprachmodellen. Für die Funktion als KI-Agent muss Alexa Hunderte Drittanbieterdienste ansprechen können, die laut Prasad teils Milliarden von Anfragen pro Woche erhalten.
Die Komplexität wird durch die hohen Nutzererwartungen verstärkt: Alexa soll schnell und extrem präzise antworten - Eigenschaften, die im Widerspruch zur statistischen Natur heutiger generativer KI stehen können.
Ein aktueller Amazon-Mitarbeiter erklärt, dass noch weitere Schritte nötig seien, etwa die Integration von Kindersicherungsfiltern und Tests für Smart-Home-Geräte. Die Verlässlichkeit sei das Problem - es müsse fast 100 Prozent der Zeit funktionieren. Deshalb sehe man Amazon, Apple oder Google nur langsam und schrittweise neue Funktionen ausrollen.
Ein ehemaliges hochrangiges Mitglied des Alexa-Teams warnt vor den Risiken: Die Sprachmodelle könnten manchmal komplett erfundene Antworten produzieren. Bei der Größenordnung, in der Amazon operiere, könnte das täglich vielfach passieren. Das könnte Marke und Reputation des Unternehmens schaden.
Amazon setzt bei der Entwicklung auf eigene Nova-Modelle sowie auf Claude, das KI-Modell des Start-ups Anthropic, in das Amazon in den vergangenen 18 Monaten 8 Milliarden Dollar investiert hat. Das bedeutet für das Alexa-Team auch eine monetäre Herausforderung: All diese Investitionen müssen Projekte wie Alexa und Co. langfristig wieder einspielen. Einen klaren Fahrplan dafür gibt es bisher nicht.