Bevor Roboter eigenständig Alltagsaufgaben erledigen und KI-Assistenten ihre Umgebung einordnen und verstehen können, muss die zugrunde liegende KI erst einmal lernen, mit der Welt zu interagieren. Facebooks Habitat 2.0 ist die fortschrittlichste Lernumgebung dieser Art.
Die meisten KI-Modelle werden mit Text, Bildern, Audio und Video trainiert. Doch die Welt besteht aus mehr als ein paar Dateien: Sie hat drei Dimensionen, komplexe physikalische Eigenschaften und unzählige Interaktionsmöglichkeiten.
Damit Forscher KI-Agenten in realistischen Umgebungen üben lassen können, veröffentlichte Facebook 2019 die Simulationsplattform Habitat. Da das KI-Training virtuell stattfindet, gibt es keine Sicherheitsbedenken. Außerdem können KI-Agenten stark beschleunigt lernen und eine Handlung Millionen Male schneller ausführen als in der physischen Wirklichkeit.
Habitat 2.0: Dynamische Umgebungen für komplexe Aufgaben
Jetzt stellt Facebook mit Habitat 2.0 die nächste Generation der KI-Lernumgebung vor. Während das alte Habitat lediglich fotorealistische, statische Umgebungen bereitstellt, in denen KI-Agenten Räume wiedererkennen und einordnen sowie Navigation lernen, können sie in Habitat 2.0 mit einer Vielzahl Objekt interagieren und so zum Beispiel üben, den Kühlschrank zu befüllen, den Tisch abzuräumen und Geschirr abzuwaschen.
Hierfür kommt ein neuer 3D-Datensatz zum Tragen: ReplicaCAD. Der besteht aus 111 unterschiedlichen Wohnräumen und bietet in Annäherung an die reale Welt 92 manipulierbare Objekte mit individuellen mechanischen und materiellen Eigenschaften. Selbst die Art des Materials und dessen Reibungsfähigkeit werden simuliert.
Effizientere Simulation für schnellere KI-Entwicklung
Habitat 2.0 bietet neben der Interaktivität zusätzlich eine höhere Simulationsgeschwindigkeit: Forscher könne ihre KI-Modelle so schneller auswerten und verbessern. Aufwendigere Experimente, die zuvor sechs Monate beanspruchten, können neuerdings in zwei Tagen absolviert werden, schreibt Facebook.
Trotz aller Fortschritte im Simulationstraining: Komplexere Handlungen, die aus mehreren Teilaufgaben bestehen, wie Tisch decken und Müll rausbringen, sind laut Facebook immer noch eine große Herausforderung für KI-Agenten.
Zu diesem Zweck führt das Unternehmen mit Habitat 2.0 einen speziellen Benchmark ein, mithilfe dessen die Alltagstauglichkeit von KI-Agenten besser bewertet werden kann. Der Home Assistive Benchmark (HAB) beinhaltet komplexe Handlungen wie Wohnung putzen und dabei Teilaufgaben wie Schublade öffnen oder Gegenstand aufsammeln.
Neue Zimmer für KI-Agenten: Facebook kooperiert mit Matterport
Für die nächste Habitat-Generation will Facebook die Simulationsfähigkeit weiter beschleunigen und mehr Wohnräume aus aller Welt integrieren, da sich Roboter und KI-Assistenten nicht nur im Westen zurechtfinden sollen.
Was ebenfalls noch fehlt, sind deformierbare und flüssige Objekte (man denke an Kleider oder verschüttete Milch) sowie auditive und taktile Sinne für Roboter: Die KI-Agenten können in der Habitat-Simulation derzeit weder hören noch spüren. Facebooks eigene Forschung mit Habitat 2.0 kann man in der wissenschaftlichen Publikation nachlesen.
Facebook kooperiert mit Matterport
Die zweite große Habitat-Ankündigung betrifft die Facebook-Kooperation mit Matterport, einem Unternehmen, das im großen Stil 3D-Scans von Innenräumen anfertigt.
Das Ergebnis der Zusammenarbeit ist der Open-Source-Datensatz HM3D, der laut Facebook und Matterport größte Datensatz für 3D-Innenräume. Die 1.000 3D-Scans geben akkurat reale Wohnungen, Mehrfamilienhäuser, Büros und Geschäfte wieder, in denen sich KI-Agenten nach Belieben austoben können.
Die Umgebungen sind allerdings nicht interaktiv und dienen lediglich der Erkennung und Einordnung von Objekten, Zimmern und Räumen sowie der Navigation und einfachen Aufgaben wie dem Finden von Gegenständen. HM3D ist für Forschungszwecke frei im Internet erhältlich.
Quelle: Facebook AI Blog, Habitat 2.0 | Titelbild: Facebook