Inhalt
summary Zusammenfassung

Auf der elften jährlichen Connect-Konferenz von Meta hat CEO Mark Zuckerberg Neuigkeiten in den Bereichen Mixed Reality, KI und Wearables vorgestellt.

Anzeige

Besonders im Fokus standen dabei die Fortschritte bei Meta AI, dem hauseigenen KI-Assistenten, sowie die Enthüllung von Orion, dem ersten AR-Brillen-Prototyp des Unternehmens.

400 Millionen nutzen monatlich Meta AI

Meta AI, der KI-Assistent des Unternehmens, erfreut sich laut Zuckerberg wachsender Beliebtheit. Laut Meta nutzen bereits 400 Millionen Menschen den Dienst monatlich, 185 Millionen sogar wöchentlich.

Um die Interaktion mit Meta AI natürlicher zu gestalten, führt das Unternehmen (zunächst nur in Australien, Kanada, Neuseeland und den USA und nur auf Englisch) eine Spracheingabe für den Assistenten auf Facebook, Messenger, WhatsApp und Instagram ein. Zudem sollen bekannte Stimmen wie Awkwafina, Dame Judi Dench und John Cena dem KI-Assistenten mehr Persönlichkeit verleihen.

Anzeige
Anzeige

Video: Meta

Meta experimentiert außerdem mit automatischer Video- und Lippensynchronisation für Reels auf Instagram und Facebook, um Inhalte in verschiedenen Sprachen einem breiteren Publikum zugänglich zu machen. Das könnte an Geschäftsmodellen von dedizierten Start-ups wie HeyGen sägen.

Video: Meta/via @altryne/X

Auch die KI-gestützten Bearbeitungstools werden erweitert: Nutzer:innen können dank der Visionfähigkeiten der neuen Llama-3.2-Modelle nun Fragen zu hochgeladenen Fotos stellen und Elemente in echten Fotos per Sprachbefehl hinzufügen, entfernen oder verändern.

Bild: Meta
Bild: Meta

Zudem hat Meta kleinere Modelle mit 1B- und 3B-Parametern veröffentlicht, die speziell für den Einsatz auf Geräten wie Smartphones oder zukünftig auch auf AR-Brillen optimiert sind.

Empfehlung

Insgesamt scheint Meta mit immer größeren Schritten zur kommerziellen Konkurrenz von OpenAI aufzuholen; der Leistungsabstand zu Modellen wie GPT-4 schwindet. Mit der Multimodalität und der Sprachschnittstelle gibt es gleich zwei wichtige Funktionen auf einmal, die Endkund:innen im Alltag tatsächlich gebrauchen können.

Ray-Ban Meta Smart Glasses werden zum Stadtführer

Die Ray-Ban Meta Smart Glasses erhalten spannende Updates: Per Sprachbefehl kann man sich an Dinge erinnern lassen, QR-Codes und Telefonnummern scannen sowie dank erweiterter Meta-AI-Unterstützung eine persönliche Stadtführung in Echtzeit erhalten. Außerdem werden die Brillen bald Spanisch, Französisch und Italienisch live ins Englische übersetzen können.

Durch die Kooperation mit Be My Eyes können Nutzer:innen zudem die Perspektive sehbehinderter Menschen einnehmen und deren Umgebung beschreiben. Die Kollektion wird um neue Transitions-Gläser und eine limitierte Auflage von transparenten Wayfarer-Frames erweitert.

Orion: Metas erster AR-Brillen-Prototyp

Ein Höhepunkt der Konferenz war nämlich die Enthüllung von Orion, dem ersten AR-Brillen-Prototyp von Meta, an dem das Unternehmen nach eigener Aussage seit zehn Jahren arbeitet.

Die kabellose Brille wiegt weniger als 100 Gramm und ist mit zehn maßgeschneiderten Siliziumchips sowie hellen Displays mit weitem Sichtfeld (70 Grad) ausgestattet – viel mehr technische Einblicke gibt es allerdings nicht. Ganz im Sinne der Augmented Reality soll es Nutzer:innen ermöglichen, die reale Welt um sich herum zu sehen und gleichzeitig digitale Inhalte einzublenden.

Bild: Meta

Die Brille verfügt über Sprachsteuerung, Hand- und Augentracking zur Navigation durch die Benutzeroberfläche. Zudem bietet sie eine neue, diskrete und "sozial akzeptable" Interaktionsmöglichkeit über ein EMG-Armband.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Obwohl Orion nur ein Prototyp ist, betont Meta, dass es sich um ein Endkundenprodukt handeln könnte, so weit sei die Entwicklung schon fortgeschritten. Doch auch wenn die Brille so nie auf den Markt kommen wird, könnte es nun schneller zu einer noch besseren Version kommen. Für Meta-CEO Mark Zuckerberg war besonders überraschend, dass die KI-Elemente früher marktreif sind als die eigentliche Hardware - was er vor einigen Jahren noch anders prognostiziert hatte.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Meta AI, der hauseigene KI-Assistent von Meta, verzeichnet ein starkes Nutzerwachstum mit 400 Millionen monatlich aktiven Nutzern. Neue Funktionen wie Spracheingabe, prominente Stimmen und automatische Video- und Lippensynchronisation sollen die Interaktion natürlicher gestalten.
  • Metas KI-Modelle Llama 3.2 ermöglichen es Nutzern, Fragen zu Fotos zu stellen und Elemente per Sprachbefehl zu bearbeiten. Kleinere Modelle mit 1B- und 3B-Parametern sind speziell für den Einsatz auf Geräten wie Smartphones oder AR-Brillen optimiert.
  • Die Ray-Ban Meta Smart Glasses erhalten Updates wie Erinnerungsfunktionen, QR-Code- und Telefonnummern-Scanning sowie eine persönliche Stadtführung in Echtzeit. Zudem enthüllte Meta mit Orion seinen ersten AR-Brillen-Prototyp, der trotz eines Gewichts von unter 100 Gramm ein Display und KI-Funktionen bietet.
Quellen
Jonathan ist Technikjournalist und beschäftigt sich stark mit Consumer Electronics. Er erklärt seinen Mitmenschen, wie KI bereits heute nutzbar ist und wie sie im Alltag unterstützen kann.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!