Inhalt
summary Zusammenfassung
DEEP MINDS Podcast
Podcast über Künstliche Intelligenz und Wissenschaft
KI bei der Bundeswehr und der BWI | DEEP MINDS #16

Bislang konnte KI nur schwierig Benutzeroberflächen von Smartphones bedienen. Google-Forschende scheinen jetzt einen Weg gefunden zu haben.

Forschende von Google Research haben die Verwendung großer Sprachmodelle (LLM) zur Verbesserung der sprachbasierten Interaktion mit mobilen Benutzeroberflächen untersucht. Gegenwärtige intelligente Assistenten auf mobilen Geräten stoßen bei gesprächsähnlichen Interaktionen an ihre Grenzen, da sie nicht in der Lage sind, Fragen zu spezifischen Informationen auf dem Bildschirm zu beantworten.

Die Forscher:innen haben eine Reihe von Techniken entwickelt, um LLMs auf mobilen User Interfaces einzusetzen, einschließlich eines Algorithmus, der die Bedienoberfläche in Text umwandelt. Diese Techniken ermöglichen es Entwickler:innen, neue sprachbasierte Interaktionen schnell in einen Prototyp zu gießen und zu testen. LLMs eignen sich für kontextuelles Prompt-Lernen, bei dem das Modell mit wenigen Beispielen aus der Zielaufgabe gefüttert wird.

Per Sprachmodell das Smartphone steuern

In umfangreichen Experimenten wurden vier Schlüsselaufgaben untersucht. Diese haben den Wissenschaftler:innen zufolge das Ergebnis, dass LLMs für die genannten Aufgaben eine konkurrenzfähige Leistung erbringen und nur zwei Beispiele pro Aufgabe benötigen würden.

Anzeige
Anzeige

1. Generierung von Fragen für den Bildschirm: Wenn etwa eine mobile Benutzerschnittstelle (UI) dargestellt wird, kann das Sprachmodell relevante Fragen zu den UI-Elementen generieren, die eine Benutzereingabe erfordern. Laut Studie konnten Sprachmodelle Fragen mit nahezu perfekter Grammatik (4.98/5) generieren, die mit 92,8 Prozent eine hohe Relevanz für die auf dem Bildschirm angezeigten Eingabefelder hatten.

Bild: Google

2. Bildschirmzusammenfassung: LLMs sind in der Lage, die Hauptfunktionen einer mobilen UI effektiv zusammenzufassen. Sie erzeugen genauere Zusammenfassungen als das zuvor eingeführte Screen2Words-Modell und können sogar Informationen ableiten, die nicht direkt in der UI präsentiert werden.

Bild: Google

3. Beantwortung von Bildschirmfragen: Wenn ein mobiles UI und eine offene Frage präsentiert werden, die Informationen über die UI erfordert, kann das LLM die richtige Antwort liefern. Die Studie zeigt, dass LLMs Fragen wie "Was ist die Überschrift?" beantworten kann. Das LLM schnitt dabei deutlich besser ab als das Basis-QA-Modell DistilBERT.

Bild: Google

4. Zuordnung von Instruktionen zu UI-Aktionen: Wenn ein mobiles UI und eine Anweisung in natürlicher Sprache zur Steuerung gegeben werden, kann das Modell die ID des Objekts vorhersagen, für das die angegebene Aktion ausgeführt werden soll. Beispielsweise konnte das Modell bei der Anweisung "Öffne Gmail" das Gmail-Symbol auf dem Startbildschirm korrekt identifizieren.

Bild: Google

Die Google-Wissenschaftler:innen schlussfolgern, dass das Prototyping von neuen sprachbasierten Interaktionen auf mobilen UIs durch den Einsatz von LLMs vereinfacht werden kann. Dies eröffne sowohl Designer:innen als auch Entwickler:innen und Forschenden neue Möglichkeiten, bevor sie in die Entwicklung neuer Datenbanken und Modelle investieren.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Empfehlung
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Eine Studie von Google Research zeigt, dass große Sprachmodelle eine Vielzahl von sprachbasierten Interaktionen mit mobilen Benutzerschnittstellen effizient steuern können.
  • Durch den Einsatz von LLMs konnten die Modelle unter anderem Fragen zu Benutzeroberflächen generieren oder Bildschirminhalte zusammenfassen, und dies mit minimalen Trainingsdaten.
  • Dieser Ansatz könnte die Entwicklung von Sprachinteraktionssystemen revolutionieren, indem er den Aufwand für Datenbeschaffung und Modelltraining erheblich reduziert.
Quellen
Jonathan ist Technikjournalist und beschäftigt sich stark mit Consumer Electronics. Er erklärt seinen Mitmenschen, wie KI bereits heute nutzbar ist und wie sie im Alltag unterstützen kann.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!