Anzeige
Short

Apple arbeitet laut Bloomberg Reporter Mark Gurman daran, Apple Intelligence auch für das Vision Pro Headset verfügbar zu machen. Eine Herausforderung sei dabei, die Funktionen für Mixed Reality zu optimieren. Die KI-Features sollen für die Vision Pro erst im nächsten Jahr erscheinen - Apple Intelligence startet auf allen anderen unterstützten Geräten im Herbst. Bis dahin erwartet Gurman auch einen Deal mit Google oder Anthropic, um weitere KI-Modelle zu unterstützen. Langfristig könnte das Unternehmen einen monatlich zu bezahlenden Service wie "Apple Intelligence+" planen, der zusätzliche Funktionen bietet, um mit der Technologie Geld zu verdienen. Apple erhält bereits einen Anteil an den Abonnementeinnahmen jedes KI-Partners, den es an Bord holt. "Das Unternehmen wird dann weniger auf Hardware-Optimierungen angewiesen sein, um sein Geschäft voranzutreiben, und es wird tatsächlich Geld mit KI verdienen - etwas, das sich jeder im Silicon Valley erhofft", sagt Gurman.

Short

LMSYS Org hat die Chatbot Arena um Bilderkennung erweitert, um Vision-Language-Modelle (VLMs) von OpenAI, Anthropic, Google und anderen KI-Anbietern zu vergleichen. In zwei Wochen wurden über 17.000 Nutzerpräferenzen in mehr als 60 Sprachen gesammelt. GPT-4o und Claude 3.5 Sonnet schneiden bei Bilderkennung deutlich besser ab als Gemini 1.5 Pro und GPT-4 Turbo. Während Claude 3 Opus bei Sprachmodellen besser ist als Gemini 1.5 Flash, sind beide bei VLMs ähnlich gut. Das Open-Source-Modell Llava-v1.6-34b übertrifft knapp Claude-3-Haiku. Die gesammelten Daten zeigen häufige Anwendungen wie Bildbeschreibung, Matheaufgaben, Dokumentenverständnis, Meme-Erklärung und Geschichtenschreiben. Als nächstes plant das Team die Unterstützung mehrerer Bilder sowie von PDFs, Videos und Audio. Large Model Systems Organization (LMSYS Org) ist eine offene Forschungsorganisation, die von Studenten und Dozenten der UC Berkeley in Zusammenarbeit mit der UCSD und der CMU gegründet wurde.

Bild: LMSYS
Anzeige
Anzeige
Anzeige
Anzeige
Short

Google hat auf der I/O Connect in Berlin seine Modellreihe Gemma 2 vorgestellt, die ab nächstem Monat über Vertex AI für Forscher und Entwickler verfügbar sein wird. Das Modell wird in zwei Versionen erhältlich sein: mit 9 und mit 27 Milliarden Parametern. Die quelloffenen Modelle sollen effizienter und sicherer als ihre Vorgänger sein und doppelt so große Modelle in der Gesamtleistung schlagen. Auf der Google I/O im Mai zeigte das Unternehmen erste Benchmarks der großen Variante, die dort auch mit Metas Llama 3 mit 70 Milliarden Parametern mithalten konnte. Laut Google richten sich die neuen Modelle an Entwickler, die KI in ihre Apps oder Edge-Geräte wie Smartphones, IoT-Geräte und PCs integrieren wollen.

Anzeige
Anzeige
Google News