Inhalt
summary Zusammenfassung

Ein Forscherteam hat eine neue Technik vorgestellt, die es ermöglicht, realistische 3D-Modelle mit Texturen aus kompakten 2D-Bildern zu erzeugen. Der Ansatz könnte den Prozess der 3D-Inhaltserstellung grundlegend verändern.

Anzeige

Wissenschaftler der Simon Fraser University und der City University of Hong Kong haben eine neuartige Methode entwickelt, um 3D-Modelle mit UV-Texturen effizient aus 2D-Bildern zu generieren. Die als "Object Images"  (kurz: Omages) bezeichnete Technik fasst die Geometrie, das Erscheinungsbild und die Oberflächenstruktur eines 3D-Objekts in einem 64x64 Pixel großen Bild zusammen.

Bild: Yan, Lee et al.

Diese kompakte Darstellung ermöglicht es, komplexe 3D-Formen in ein handlicheres 2D-Format zu überführen. Umgekehrt lassen sich aus diesen Bildern wieder vollständige 3D-Modelle rekonstruieren.

Video: Yan, Lee et al.

Anzeige
Anzeige

Object Images ermöglichen 3D-Modelle aus winzigen Bildern

Die "Object Images" bestehen aus 12 Kanälen, die Informationen zu Geometrie, Albedo (Textur), Normalenkarten, Metallizität und Rauheit enthalten. Durch Umkehrung der 2D-Abbildung kann ein komplettes 3D-Modell mit PBR-Materialien erzeugt werden.

Bild: Yan, Lee et al.

Um ihre Methode zu testen, trainierten die Forscher ein Diffusionsmodell auf dem Amazon Berkeley Objects (ABO) Datensatz mit etwa 8.000 hochwertigen 3D-Modellen. Laut dem Team erreichten die generierten 3D-Formen mit Oberflächenstrukturen eine mit aktuellen 3D-Generierungsmodellen vergleichbare Qualität.

Bild: Yan, Lee et al.

Der Ansatz hat jedoch auch Einschränkungen: Die erzeugten 3D-Modelle weisen noch Lücken auf, das Training erfordert 3D-Formen mit hochwertigen Daten und die derzeit genutzte Auflösung von 64x64 Pixeln bietet zwar Vorteile, schränkt aber auch die mögliche Qualität der Endergebnisse ein.

Dennoch sehen die Forscher in ihrer Arbeit einen wichtigen Schritt auf dem Weg zu einer effizienten Erzeugung hochwertiger 3D-Assets. Sie wollen nun die bestehenden Einschränkungen der Methode überwinden.

Mehr Informationen und bald den Code gibt es auf der Projektseite.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Empfehlung
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Forscher der Simon Fraser University und der City University of Hong Kong haben eine Methode namens "Object Images" (Omages) entwickelt, um 3D-Modelle mit Texturen aus 64x64 Pixel großen 2D-Bildern zu erzeugen.
  • Die Omages bestehen aus 12 Kanälen mit Informationen zu Geometrie oder Textur. Aus diesen kompakten Bildern können vollständige 3D-Modelle mit PBR-Materialien rekonstruiert werden.
  • In Tests mit einem auf 8.000 3D-Modellen trainierten Diffusionsmodell erreichte die Methode eine mit aktuellen 3D-Generierungsverfahren vergleichbare Qualität.
Quellen
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!