Inhalt
summary Zusammenfassung

Das neue KI-Modell "Imagine yourself" von Meta kann aus einem einzigen Referenzbild vielfältige personalisierte Bilder erzeugen - ohne zusätzliches Training.

Anzeige

Meta hat ein neues KI-Modell für personalisierte Bildgenerierung namens "Imagine yourself" vorgestellt. Das Modell kann aus einem einzigen Referenzbild einer Person vielfältige neue Bilder dieser Person in unterschiedlichen Posen, Stilen und Umgebungen erzeugen.

Im Gegensatz zu früheren Ansätzen, die für jede Person neu trainiert werden mussten, funktioniert "Imagine yourself" ohne personenspezifisches Training. Das Modell verarbeitet das Referenzbild und die Textanweisung parallel und kann so flexibel auf neue Personen und Anweisungen reagieren.

Meta setzt auf synthetische Trainingsdaten

Um diese Verbesserungen zu erreichen, setzt Meta auf mehrere neue Techniken: Erstens nutzt "Imagine yourself" synthetische Trainingspaare. Dabei werden zu echten Referenzbildern passende synthetische Varianten erzeugt. So lernt das Modell, Personen in verschiedenen Posen und Stilen darzustellen, ohne sich zu sehr am Referenzbild zu orientieren.

Anzeige
Anzeige

Zweitens verwendet das Modell eine neue Architektur mit drei parallelen Textverarbeitungsmodulen und einem trainierbaren Bildverarbeitungsmodul. Diese verarbeiten Bild und Text gleichzeitig und ermöglichen so eine bessere Abstimmung zwischen beiden. Außerdem nutzt Meta ein mehrstufiges Feintuning. Dabei wird das Modell abwechselnd mit echten und synthetischen Daten trainiert, um Identitätserhaltung und Anweisungsbefolgung zu optimieren.

Das Bild zeigt die Architektur des
Bild: Meta

Im Vergleich zu bestehenden Ansätzen wie InstantID oder IP-Adapter kann "Imagine yourself" laut Meta deutlich besser komplexe Anweisungen umsetzen, die starke Änderungen am Referenzbild erfordern. Beispielsweise kann das Modell den Gesichtsausdruck oder die Kopfhaltung einer Person verändern und sie in völlig neue Umgebungen versetzen.

"Imagine yourself" hat noch Schwächen und ist bisher nicht verfügbar

Allerdings zeigt die Studie auch, dass konkurrierende Modelle bei der Identitätserhaltung teilweise noch besser abschneiden. Meta erklärt dies damit, dass diese Modelle oft einfach Teile des Referenzbildes kopieren, was aber zu unnatürlich wirkenden Ergebnissen führen kann.

"Imagine yourself" kann auch für die Generierung von Bildern mit mehreren Personen erweitert werden. Dazu werden die Bildinformationen mehrerer Referenzbilder parallel verarbeitet. So können Gruppenfotos mit bekannten Personen in neuen Posen und Umgebungen erzeugt werden.

Meta plant, die Forschung an "Imagine yourself" fortzusetzen. Zukünftige Schwerpunkte sind die Erweiterung auf Videogenerierung sowie die Verbesserung bei sehr komplexen Posen wie Sprüngen. Bisher sind das Modell oder der Code nicht verfügbar.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Empfehlung
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Meta hat ein neues KI-Modell namens "Imagine yourself" entwickelt, das aus einem einzigen Referenzbild vielfältige personalisierte Bilder einer Person erzeugen kann, ohne zusätzliches Training zu benötigen.
  • Das Modell nutzt synthetische Trainingsdaten und eine neue Architektur mit parallelen Verarbeitungsmodulen für Text und Bild. Dadurch kann es flexibel auf neue Personen und Anweisungen reagieren und komplexe Änderungen am Referenzbild vornehmen.
  • Laut Meta kann "Imagine yourself" besser komplexe Anweisungen umsetzen als bestehende Ansätze, hat aber noch Schwächen bei der Identitätserhaltung. Das Unternehmen plant, die Forschung fortzusetzen und das Modell auf Videogenerierung zu erweitern.
Quellen
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!