Inhalt
summary Zusammenfassung

Transformer in der Tastatur und Gesichts- und Handtracking in der neuen Brille Apple Vision Pro. Apple spricht nicht von KI, sondern von maschinellem Lernen, integriert die neue Technologie aber dennoch in zahlreiche Anwendungen.

Anzeige

Auffällig an Apples Keynote war vor allem die bewusste Vermeidung des mit vielen Vorstellungen und Erklärungen aufgeladenen Begriffs "Künstliche Intelligenz". Stattdessen spricht Apple lieber von "Machine Learning", also einer Methode aus dem Themenfeld KI, meist in Verbindung mit "on-device", also auf dem Gerät, um die Privatsphäre bei der Datenverarbeitung zu betonen.

Dies kann als Meta-Kommentar zum aktuellen KI-Hype verstanden werden, dem sich Apple damit zumindest teilweise entzieht. Die Wortwahl liegt aber auch auf der Linie früherer Ankündigungen. Zumindest haben die jüngsten Marktbewegungen die Position von Apple nicht verändert.

Jedenfalls treibt ein solches "Machine-Learning-Sprachmodell" ab iOS 17 die Autokorrektur und Wortvorhersage der mobilen Tastatur von Apple an. Das Unternehmen betont dabei den Datenschutz: Das Modell läuft mit Apples "Neural Engine" direkt auf dem mobilen Endgerät und lernt aus dem Schreibstil des Nutzers, so dass die Ergänzungen mit der Zeit persönlicher werden sollen. KI-Textvorschläge kommen auch in Apples "Journal"-App zum Einsatz, zudem soll die Diktierfunktion dank eines Sprachmodells genauer funktionieren.

Anzeige
Anzeige

Bei der Vorstellung der KI-Tastatur ließ sich Apple schließlich dazu hinreißen, von einem "Transformer"-Modell zu sprechen, der neuronalen Netzwerkarchitektur, die hinter den Durchbrüchen bei den großen Sprachmodellen der letzten Jahre steht und beispielsweise ChatGPT antreibt. Für eine Massenpräsentation war das erstaunlich spezifisch und wohl eher ein freundlicher Gruß an die KI-Gemeinschaft.

KI steckt in den Software-Details

Apple setzt Machine Learning in weiteren Bereichen ein, etwa bei der Animation von eigentlich statischen Fotos auf dem Sperrbildschirm oder beim automatischen Ausfüllen von PDFs. Apps auf der Apple Watch und den AirPod-Kopfhörern sollen durch Machine Learning Nutzungsgewohnheiten erlernen und so Informationen passend ausliefern oder die Lautstärke automatisch anpassen. Voicemails werden durch KI automatisch in Text umgewandelt.

Diese zahlreichen Quality of Life-Verbesserungen in Apples Software durch maschinelles Lernen dürften Teil der Vision sein, die Apples KI-Chef John Giannandrea (ehemals Google) für das Jahr 2020 formuliert hat: KI soll jeden Aspekt von Apples Betriebssystemen verändern.

Schon damals betonte Giannandrea, dass sich Apple besonders auf die lokale Datenverarbeitung konzentrieren wolle. Immerhin taucht KI in Giannandras Jobbeschreibung auf: Er ist nämlich für Apples "AI Strategy" verantwortlich.

KI ist grundlegend für Apples neueste Hardware

Ganz grundlegend sind KI und maschinelles Lernen beim Apple-Headset Vision Pro: Hier wird Computer Vision für Raum- und Handtracking sowie Umgebungs- und Objekterkennung über zwölf Kameras, fünf Sensoren und sechs Mikrofone eingesetzt.

Empfehlung

Die wohl größte Innovation ist Apples "Persona", die aus einem 3D-Gesichtsscan des Nutzers synthetisiert wird und dann zum Beispiel in Facetime-Gesprächen mit der Brille zum Einsatz kommt. Diese "digitale Repräsentation" wird laut Apple durch ein "fortschrittliches neuronales Encoder-Decoder-Netzwerk" generiert.

Über die in die Brille integrierten Sensoren erzeugt man einen 3D-Scan des eigenen Gesichts, der dann per KI, sorry, Machine Learning, zum Leben erweckt wird.
Über die in die Brille integrierten Sensoren erzeugt man einen 3D-Scan des eigenen Gesichts, der dann per KI, sorry, Machine Learning, zum Leben erweckt wird. | Bild: Apple

Meta hat solche High-End-Avatare in der Vergangenheit immer wieder als Forschungsprojekt "Codec Avatare" vorgestellt. Apple ist nun aber der erste Hersteller, der sie tatsächlich in einem Produkt einsetzt.

Auch im neuen High-End-Chip "M2 Ultra" steckt laut Apple viel KI-Zukunft: Er verfügt über eine Neural Engine mit 32 Kernen sowie 24 CPU- und 76 GPU-Kerne, die zusammen bis zu 31,6 Billionen Operationen pro Sekunde ausführen können. Das sind 40 Prozent mehr Leistung als beim M1.

Die zusätzliche Leistung eignet sich laut Apple für das Training großer Transformermodelle auf einem Niveau, das selbst "die leistungsfähigsten diskreten GPUs" aufgrund von Speichermangel nicht abbilden könnten. Der M2 Ultra bietet 192 GB Unified Memory, was High-End-Macs in Zukunft zu ernstzunehmenden Computern für die KI-Entwicklung und -Forschung machen könnte.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Apple legt in seiner Technologiekommunikation den Schwerpunkt auf "maschinelles Lernen" statt auf "künstliche Intelligenz" und betont den Datenschutz durch lokale Datenverarbeitung.
  • Zu den Software-Verbesserungen durch maschinelles Lernen gehören personalisierte Tastaturvorhersagen, animierte Fotos, anpassbare Apps und vieles mehr.
  • Die neue Brille Apple Vision Pro und der Chip "M2 Ultra" verfügen über fortschrittliche KI-Funktionen wie 3D-Gesichtsscans und die Möglichkeit, leistungsstarke neuronale Netze zu trainieren.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!