Inhalt
newsletter Newsletter
DEEP MINDS Podcast
Podcast über Künstliche Intelligenz und Wissenschaft
Bewusstsein, Kognition und Künstliche Intelligenz | DEEP MINDS #10

Menschen sehen Stühle und verstehen, was einen Stuhl ausmacht. Sie erkennen einen Stuhl, auch wenn er umgefallen ist, eine andere Farbe oder Form hat. Dieses Abstraktionsvermögen geht Maschinen ab. KI-Forscher des MIT ist es gelungen, einer Künstlichen Intelligenz ähnliche Fähigkeiten beizubringen, sodass sie Gegenstände eigenständig klassifizieren kann.

Das von den Wissenschaftlern entwickelte Computer-Vision-System hört auf den Namen DON („Dense Object Nets“) und lernt dank eines künstlichen neuronalen Netzes.

Ein Youtube-Video veranschaulicht, wie es funktioniert: Die Forscher legen ein Objekt auf eine Platte, worauf sich die KI das Objekt mittels eines beweglichen Roboterarms und einer integrierter Kamera von allen Seiten anschaut.

Aus den unterschiedlichen Perspektiven gewinnt die Künstliche eine räumliche Vorstellung des Gegenstands, indem es Eigenschaften des Objekts aus verschiedenen Blickwinkeln zueinander ins Verhältnis setzt.

Anzeige
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung

Hat es seine Eigenschaften erfasst, kann es Gegenstände selbst dann identifizieren, wenn es nur Teile dessen aus einer unbekannten Perspektive erkennt. „Bisherige Algorithmen konnten beispielsweise eine Tasse nicht an ihrem Griff erkennen, inbesondere dann, wenn die Tasse steht oder seitlich liegt“, sagt Doktorand Lucas Manuelli, der das KI-System mitentwickelte.

 

Könnte bei der Objekterkennung helfen

Der Roboter soll durchschnittlich 20 Minuten brauchen, um die Eigenschaften eines Gegenstands zu lernen. Dabei spielt es keine Rolle, ob das Objekt fest oder weich ist und welche Farben, Formen oder Oberflächen es hat. Das selbstlernende KI-System kann von diesen Abweichungen abstrahieren. Um zu lernen, was einen Hut ausmacht, brauchte es lediglich sechs unterschiedliche Exemplare.

In Tests markierten die Forscher Stellen eines Gegenstands auf einem Referenzbild, die die Maschine am realen Objekt identifizieren sollte.

Ein Beispiel: Das rechte Ohr einer Plüschraupe. Der Roboterarm konnte die Stelle unabhängig von der räumlichen Position des Gegenstands ausmachen, das Plüschtier am rechten Ohr greifen und aufheben.

Empfehlung

Die Technologie könnte bei Fabrikrobotern zum Einsatz kommen, die Gegenstände manipulieren oder sortieren müssen. Im Kontext der Augmented Reality könnte sie bei der Objekterkennung helfen und AR-Brillen ermöglichen, Gegenstände in ihren zahlreichen Erscheinungsformen schnell und eindeutig zu identifizieren.

Mehr lesen zum Thema:

| Featured Image: | Source: Venturebeat
Anzeige
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Tomislav schreibt über Künstliche Intelligenz im Kontext der XR, Kunst und virtueller Wesen: Wie trägt KI zur Entwicklung von VR und AR bei, wie rekonstruiert und erweitert sie das menschliche Kunstschaffen und welche neue Formen des Geschichtenerzählens und der NPC-Interaktion ermöglicht sie?
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!