Google stellt eine neue KI-gestützte Methode fürs Hand- und Fingertracking vor, die sogar auf dem Smartphone läuft.
Im eigenen KI-Blog stellt Google ein neues Verfahren für Hand- und Fingertracking sowie Gestenerkennung vor. Drei separat trainierte KI-Modelle sollen im Verbund für eine besonders robuste und schnelle Hand- und Fingererkennung in 3D sorgen, die auch dann noch verlässlich arbeitet, wenn Teile der Hand verdeckt sind.
Zunächst identifiziert ein Handflächen-Detektor-Modell die Handfläche samt der Finger. Auf beides legt anschließend ein Hand-Orientierungssystem insgesamt 21 trackbare Bewegungspunkte.
Das dritte KI-Modell ist für die Gestenerkennung zuständig. Es wurde mit rund 30.000 kommentierten Bildern von Fingergesten aus verschiedenen Kulturkreisen trainiert.
Ergänzend zu den realen Aufnahmen wurde ein hochwertig und vor verschiedenen Hintergründen gerendertes künstliches Handmodell fürs KI-Training verwendet. Das soll die Robustheit des Trackings beispielsweise bei wechselndem Hintergrund verbessern.
Das neue Trackingverfahren läuft sogar auf Smartphones: Die vortrainierten KI-Modelle können mit Tensorflow Lite ausgeführt werden, Googles Smartphone-optimierte KI-Abspielsoftware.
Für die optische Erfassung reicht eine herkömmliche RGB-Kamera, wie sie in so ziemlich jeder Smartphone-Rück- und Vorderseite steckt.
Die Google-Forscher stellen die Software samt Demo kostenlos als Open-Source-Version bei Github zur Verfügung. Dies in der Hoffnung, dass sie von anderen Entwicklern aufgegriffen und kreativ in Anwendungen implementiert wird.
Die Möglichkeit, Hand und Finger verlässlich zu erfassen, könne in vielen Anwendungen und über zahlreiche Plattformen hinweg die Nutzererfahrung verbessern, so die Forscher.
Quelle, Bilder, Videos: Google