Inhalt
summary Zusammenfassung

Meta hat einen neuen Benchmark-Datensatz namens HOT3D veröffentlicht, der die KI-Forschung im Bereich der 3D-Hand-Objekt-Interaktionen vorantreiben soll. Der Datensatz enthält über eine Million Frames aus mehreren Perspektiven.

Anzeige

Der HOT3D-Datensatz von Meta zielt darauf ab, das Verständnis dafür zu verbessern, wie Menschen ihre Hände zur Manipulation von Objekten einsetzen. Laut Meta ist dies nach wie vor eine zentrale Herausforderung für die Computervision-Forschung.

Der Datensatz umfasst über 800 Minuten an egozentrischen Videoaufnahmen und enthält synchronisierte Videoaufnahmen aus mehreren Perspektiven sowie hochwertige 3D-Pose-Annotationen von Händen und Objekten. Zudem sind 3D-Objektmodelle mit PBR-Materialien, 2D-Bounding-Boxes, Blicksignale und 3D-Szenen-Punktwolken aus SLAM enthalten.

Video: Meta

Anzeige
Anzeige

Die Aufnahmen zeigen 19 Testpersonen bei der Interaktion mit 33 verschiedenen Alltagsgegenständen. Neben einfachen Szenarien, in denen Objekte aufgehoben, betrachtet und abgelegt werden, enthält der Datensatz auch typische Handlungen in Küchen-, Büro- und Wohnzimmerumgebungen.

Für die Datenerfassung wurden zwei Geräte von Meta eingesetzt: Die Forschungsbrille Project Aria und das VR-Headset Quest 3. Project Aria liefert pro Aufnahme ein RGB-Bild und zwei monochrome Bilder, während Quest 3 zwei monochrome Bilder bereitstellt.

Bild: Meta

HOT3D könnte bessere Roboter und XR-Interaktionen ermöglichen

Ein Kernelement des Datensatzes sind die präzisen 3D-Annotationen für Hände und Objekte. Diese wurden mithilfe eines markerbasierten Motion-Capture-Systems erfasst. Die Handposen werden im UmeTrack- und MANO-Format bereitgestellt, während die Objektposen als 3D-Transformationen dargestellt sind.

HOT3D umfasst auch Blickrichtungsdaten und Kopfposition. | Bild: Meta

Zusätzlich enthält der Datensatz hochwertige 3D-Modelle der 33 verwendeten Objekte. Diese wurden mit einem hausinternen 3D-Scanner von Meta erstellt und verfügen über detaillierte Geometrie sowie PBR-Materialien, die eine fotorealistische Darstellung ermöglichen.

Bild: Meta

Meta sieht in dem Datensatz Potenzial für verschiedene Anwendungen: "Der HOT3D-Datensatz und Benchmark wird neue Möglichkeiten in diesem Forschungsbereich eröffnen, wie die Übertragung manueller Fähigkeiten von Experten auf weniger erfahrene Benutzer oder Roboter, die Unterstützung eines KI-Assistenten beim Verständnis der Handlungen des Benutzers oder die Ermöglichung neuer Eingabemöglichkeiten für AR/VR-Benutzer, wie z.B. die Verwandlung jeder physischen Oberfläche in eine virtuelle Tastatur oder jeden Bleistift in einen multifunktionalen Zauberstab."

Empfehlung

Der Datensatz ist auf Metas HOT3D-Projektseite verfügbar.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Meta hat einen neuen Benchmark-Datensatz namens HOT3D veröffentlicht, der über eine Million Frames aus verschiedenen Perspektiven enthält und das Verständnis dafür verbessern soll, wie Menschen ihre Hände zur Manipulation von Objekten einsetzen.
  • Der Datensatz umfasst RGB- und monochrome Bilder, 3D-Pose-Annotationen von Händen und Objekten, 3D-Objektmodelle mit PBR-Materialien, 2D-Bounding-Boxes, Blicksignale und 3D-Szenen-Punktwolken aus SLAM, die bei der Interaktion von 19 Testpersonen mit 33 Alltagsgegenständen erfasst wurden.
  • Meta sieht Potenzial für verschiedene Anwendungen wie die Übertragung manueller Fähigkeiten auf Roboter, die Unterstützung von KI-Assistenten beim Verständnis von Benutzerhandlungen und neue Eingabemöglichkeiten für AR/VR-Nutzer. Der Datensatz ist auf Metas HOT3D-Projektseite verfügbar.
Quellen
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!