Künstliche Intelligenz

Amazon Alexa muss bald nicht mehr ständig Alexa genannt werden

Matthias Bastian
Alexas etwas hölzerne Blechstimme klingt dank KI-Sprachsynthese jetzt viel menschlicher.

Deep Learning soll Konversationen mit Amazons KI-Assistentin Alexa natürlicher machen.

Auf der eigenen Zukunftskonferenz "Re:MARS" in Las Vegas stellt Amazon "Alexa Conversations" vor, eine Deep-Learning-Methode, die glaubhafte Konversationen mit weniger Code und Trainingsdaten ermöglichen soll.

Entwickler müssen Alexa eine Sammlung von Beispieldialogen liefern entlang der Funktionen ihres Alexa-Skills und mit möglichen Reaktionen des Nutzers.

Die Conversations-KI generiert dann aus diesen Beispielen Dialogstränge mit Variationen. Amazon verspricht Entwicklern einen "viel einfacheren Zugang" zu glaubhaften Maschinengesprächen.

Alexa macht den Duplex

Dazu gehört, dass Alexa zukünftig mehrere Aufgaben und komplexere Fragen in einem einzelnen Dialog abarbeiten können soll. Ähnlich wie bei Googles Duplex und Assistant ist es dann nicht mehr notwendig, vor jedem Befehl Alexa beim Namen zu rufen. Stattdessen sollen flüssige Gespräche entstehen, bei denen Alexa nahtlos zwischen Skills wechselt.

Auch hierfür setzt Amazon auf Maschinenlernen: Alexa soll zukünftig für die Vorhersage der richtigen Aktionen und Antworten alle vergangenen Dialoge mit einem Nutzer zu Rate ziehen. Sie soll dadurch Intentionen ahnen und den Gesprächsfluss steuern können.

Alexa-Manager Rohit Prasad bezeichnet das neue Dialogsystem als "großen Sprung" für Assistenz-KIs mit dem Ziel, die kognitive Belastung vom Nutzer auf Alexa zu verlagern.

Auf der Konferenz demonstrierte Amazon die neue Fähigkeit am Beispiel einer Ticketreservierung fürs Kino (siehe Video). Alexa führt durch das gesamte Gespräch: Sie stellt die Filme vor, die gerade laufen, spielt Trailer ab, reserviert auf Nachfrage Tickets zur gewünschten Uhrzeit und bucht ein Uber für die rechtzeitige Ankunft.

Das neue Dialogsystem soll in den kommenden Monaten ausrollen und zunächst für Kino- und Restaurantreservierungen zur Verfügung stehen.

Zuletzt stellte Amazon eine neue Sprachsynthese vor, die Alexas Stimme natürlicher klingen lässt mit unterschiedlichen Sprechstilen.

Außerdem kam heraus, dass ausgewählte Gespräche mit Alexa von Menschen mitgehört werden, die die Qualität der Dialoge bewerten und so das KI-Training verbessern sollen.

Quellen: ZDNet, Techcrunch; Titelbild: Amazon

Weiterlesen über KI-Assistenz: