Apple wurde von der schnellen Entwicklung von KI-Tools wie ChatGPT von OpenAI überrascht und arbeitet nun fieberhaft an der Entwicklung konkurrenzfähiger Funktionen für seine Geräte.
Auf der letzten Entwicklerkonferenz sprach Apple zwar nicht über KI, aber viel über "maschinelles Lernen", das in vielen Apple-Produkten zum Einsatz kommen soll. Beispiele sind die verbesserte Autokorrektur in iOS 17, die auf einem Sprachmodell basiert, oder das Computer-Vision-Wunder "Apple Vision Pro".
Hat Apple KI verschlafen?
Durch souveränes Marketing auf der Entwicklerkonferenz konnte Apple den Eindruck eindämmen, das Thema KI verschlafen zu haben.
Laut Bloombergs Apple-Korrespondent Mark Gurman ist an diesem Eindruck aber durchaus etwas dran. Denn Apple sei von der plötzlichen Fokussierung der Tech-Branche auf KI durchaus überrascht worden und arbeite seit Ende letzten Jahres hart daran, den Rückstand aufzuholen.
Bei Apple herrsche Angst vor und das Gefühl, eine wichtige Entwicklung verschlafen zu haben, zitiert Gurman einen Insider. Selbst die Sprachassistentin Siri konnte bisher nicht von den Fortschritten der generativen KI profitieren.
Führungskräfte bei Apples KI-Offensive
John Giannandrea und Craig Federighi, Apples Senior Vice Presidents für KI und Softwareentwicklung, sowie Eddy Cue, Leiter der Services-Abteilung, führen das Unternehmen in die generative KI. Zusammen sollen sie über ein Jahresbudget von einer Milliarde Dollar verfügen. Im Vergleich zu den Investitionen von Microsoft, OpenAI oder Google klingt das noch bescheiden.
Giannandreas Team konzentriert sich darauf, die Technologie für ein neues KI-System zu entwickeln und Siri zu überarbeiten, um es intelligenter zu machen. Die verbesserte Siri-Version könnte nächstes Jahr auf den Markt kommen, aber die Technologie ist bisher nicht ausgereift und es gibt Sicherheitsbedenken.
Federighis Softwareentwicklungsgruppe integriert KI in die nächste Version von iOS und hat die Aufgabe, Funktionen zu integrieren, die auf Apples großem Sprachmodell (LLM) basieren. In der Zwischenzeit untersucht Cues Organisation, wie KI in möglichst viele Anwendungen integriert werden kann.
KI in Apples Produktlinie
Internen Quellen zufolge erwägen Apples Softwareentwicklungsteams, generative KI in Entwicklungswerkzeuge wie Xcode zu integrieren. Dieser Schritt könnte den Entwicklungsprozess von Apps beschleunigen und Apples Dienste an Microsofts GitHub Copilot angleichen, der Entwicklern Vorschläge zur automatischen Vervollständigung bietet, berichtet Gurman.
Cues Team untersucht auch das Potenzial von generativer KI in Produktivitätsanwendungen. KI könnte etwa in Apps wie Pages beim Schreiben helfen oder in Keynote automatisch Folienpräsentationen erstellen, ähnlich den Funktionen, die Microsoft in seinen Word- und PowerPoint-Apps eingeführt hat.
Ein weiteres Anwendungsgebiet ist die Implementierung von KI in interne Kundenserviceapplikationen innerhalb der AppleCare Group. Dies würde den Kundenservice von Apple effizienter und reaktionsschneller machen und das gesamte Nutzererlebnis verbessern.
Apple KI: Auf dem Gerät oder in der Cloud
Es gibt eine grundlegende interne Debatte darüber, wie generative KI eingesetzt werden soll: entweder als On-Device-Funktion, als Cloud-basierte Lösung oder als Kombination aus beidem.
Der On-Device-Ansatz stünde im Einklang mit dem Schutz der Privatsphäre, den sich Apple auf die Fahnen geschrieben hat. Außerdem sei er schneller zu implementieren, so Gurman. Mit Cloud-LLMs wäre Apple hingegen flexibler, was angesichts der schnellen Entwicklung von KI ein großer Vorteil wäre. Ein kombinierter Ansatz sei wahrscheinlich.
Apple soll täglich Millionen Dollar in KI-Training investieren
Eines früheren Berichts von Gurman zufolge verwendet Apple intern bereits ein Sprachmodell, um Prototypen zu erstellen, Texte zusammenzufassen und Fragen zu den darauf trainierten Daten zu beantworten. Das Modell basiert auf dem Ajax-Framework und heißt Apple GPT. Der Einsatz in Kundenanwendungen ist noch unklar.
Laut eines früheren Berichts von The Information investiert Apple bereits täglich Millionen US-Dollar in das Training seiner KI-Systeme. Das sogenannte "Foundational Models" Team, das aus 16 Personen besteht und von Giannandrea geleitet wird, konzentrierte sich auf konversationelle KI, ähnlich wie ChatGPT.
Das zuvor durchgesickerte Modell "Ajax GPT" soll leistungsfähiger als OpenAIs GPT-3.5 sein, mit mehr als 200 Milliarden Parametern. Die Forschung an diesem Modell soll den Nutzern in Form von genaueren Sprachbefehlen für das iPhone zugutekommen.
Apple plant etwa, eine Sprachfunktion einzuführen, die es ermöglicht, GIFs per Sprachbefehl über die Shortcut-App von Apple zu senden. Diese Funktion soll voraussichtlich mit einer neuen Version von iOS im nächsten Jahr eingeführt werden.