Inhalt
summary Zusammenfassung

Microsoft-Forscher stellen CoDi vor, ein auf Diffusion basierendes, kombinierbares KI-Modell, das Inhalte in mehreren Modalitäten, darunter Text, Bilder, Video und Audio, gleichzeitig verarbeiten und erzeugen kann.

Anzeige

Composable Diffusion (CoDi) wird im Rahmen des Microsoft-Projekts i-Code entwickelt, dessen Ziel die Realisierung einer integrativen und kombinierbaren multimodalen KI ist.

CoDi ist ein solches multimodales KI-Modell. Es kann Inhalte in mehreren Modalitäten, einschließlich Text, Bild, Video und Audio, gleichzeitig verarbeiten und generieren. Damit unterscheidet sich CoDi von herkömmlichen generativen KI-Systemen, die auf bestimmte Eingabemodalitäten beschränkt sind.

Da für die meisten Modalitätskombinationen nur wenige Trainingsdatensätze zur Verfügung stehen, haben die Forscher eine Alignment-Strategie entwickelt, die die Modalitäten sowohl im Input- als auch im Outputraum aufeinander abstimmt. Dadurch ist CoDi in der Lage, auf jede beliebige Kombination von Eingaben zu reagieren und jeden beliebigen Satz von Modalitäten zu erzeugen, auch solche, die nicht in den Trainingsdaten enthalten sind.

Anzeige
Anzeige

Herausforderungen bei der Entwicklung cross-modaler KI

CoDi adressiert die Einschränkungen traditioneller monomodaler KI-Modelle und bietet eine Lösung für den oft mühsamen und langsamen Prozess der Kombination modalitätsspezifischer generativer Modelle. Das Modell verwendet eine neuartige, zusammensetzbare Generierungsstrategie, die den Abgleich im Diffusionsprozess überbrückt und die synchrone Generierung von miteinander verknüpften Modalitäten, wie z.B. synchronisierte Video- und Audiodaten, erleichtert.

Video: Microsoft

Neu ist auch das Trainingsverfahren von CoDi. Es beinhaltet die Projektion von Eingabemodalitäten wie Bilder, Video, Audio und Sprache in einen gemeinsamen semantischen Raum. Das ermöglicht eine flexible Verarbeitung multimodaler Eingaben, und mit einem Cross-Attention-Modul und einem Umgebungscodierer ist es in der Lage, beliebige Kombinationen von Ausgabemodalitäten gleichzeitig zu erzeugen.

"Teddybär auf einem Skateboard, 4k, hohe Auflösung"

Die Forscher geben Beispiele für die Fähigkeiten von CoDi und zeigen, dass es aus getrennten Text-, Audio- und Bildeingaben synchronisierte Video- und Audiodaten erzeugen kann.

In einem Beispiel enthält der Prompt den Text "Teddybär auf Skateboard, 4k, high resolution", ein Bild vom Times Square und das Geräusch von Regen.

Empfehlung

CoDi erzeugt daraufhin ein kurzes, wenn auch qualitativ ausbaufähiges Video eines Teddybären, der im Regen auf dem Times Square Skateboard fährt, begleitet von synchronisierten Regen- und Straßengeräuschen.

Die Anwendungsmöglichkeiten von CoDi sind vielfältig. Die Forscher verweisen auf mögliche Anwendungen in Bereichen wie Bildung und Barrierefreiheit für Menschen mit Behinderungen.

Unsere Arbeit ist ein wichtiger Schritt in Richtung einer ansprechenden und ganzheitlichen Mensch-Computer-Interaktion und bildet eine solide Grundlage für zukünftige Forschung im Bereich der generativen künstlichen Intelligenz.

Aus dem Paper

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Microsoft-Forscher stellen CoDi vor, ein multimodales KI-Modell, das Inhalte über mehrere Modalitäten gleichzeitig verarbeiten und generieren kann.
  • CoDi verwendet eine kompositionale Diffusionstechnik, die die Generierung von Inhalten aus einer beliebigen Kombination von Eingabe- und Ausgabemodalitäten ermöglicht.
  • Die Entwicklung von CoDi eröffnet neue Möglichkeiten für reale Anwendungen und ist ein Schritt in Richtung einer immersiveren Mensch-Computer-Interaktion.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!