Themen Hub KI in der Praxis
Künstliche Intelligenz ist im Alltag gegenwärtig – vom „Googeln“ über Gesichtserkennung bis zum Staubsaugerroboter. KI-Werkzeuge werden immer elaborierter und unterstützen Menschen und Unternehmen effektiver bei ihren Aufgaben, etwa bei der Generierung von Grafiken, beim Texten oder Coden oder bei der Interpretation großer Datenmengen.
Welche KI-Werkzeuge gibt es, wie funktionieren sind, wie helfen sie im Alltag – und wie verändern sie unser Leben? Mit diesen Fragen befassen wir uns in der Rubrik Künstliche Intelligenz in der Praxis.
Mozilla testet in Firefox Labs eine neue KI-Funktion namens Link Preview. Sie zeigt beim Überfahren eines Links mit gedrückter Shift-Alt-Taste eine Vorschaukarte mit Titel, Beschreibung, Bild, Lesezeit und drei automatisch erzeugten Stichpunkten. Die Vorschau wird lokal auf dem Gerät mit dem Sprachmodell SmolLM2-360M von Hugging Face erstellt. Ziel ist eine schnellere Orientierung beim Surfen, ohne Seiten direkt öffnen zu müssen. Mozilla plant weitere Verbesserungen bei Sprachen, Qualität und Geschwindigkeit sowie eine mögliche Android-Umsetzung. Die Funktion ist optional und über Firefox Labs aktivierbar.
Der Sprachassistent Grok von xAI erhält neue Funktionen: Grok Vision, mehrsprachige Audioausgabe und Echtzeitsuche im Sprachmodus. Diese Neuerungen stehen ab sofort allen iOS-Nutzern zur Verfügung. Android-Nutzer mit einem SuperGrok-Abonnement haben ebenfalls Zugriff auf die Echtzeitsuche und die mehrsprachige Audiofunktion. Mit Grok Vision kann die KI Inhalte, die auf dem Smartphone-Bildschirm zu sehen sind, in Echtzeit kommentieren. Google und OpenAI bieten ähnliche Funktionen bereits seit Längerem an. xAI ist das KI-Start-up von Elon Musk, das kürzlich mit Grok-3-mini kürzlich ein neues Reasoning-Modell vorgestellt hat.
Im Rahmen einer neuen Partnerschaft mit OpenAI werden künftig Artikel der Washington Post in den ChatGPT-Ergebnissen angezeigt. Die Plattform wird Beiträge der Washington Post in Bereichen wie Politik, Weltgeschehen, Wirtschaft und Technologie hervorheben und mit direkten Quellenangaben versehen. "Wir wollen unsere Zielgruppen dort erreichen, wo sie sich aufhalten", sagte Peter Elkins-Williams, Direktor für globale Partnerschaften bei der Washington Post. Wie bei jeder exklusiven Partnerschaft zwischen einem KI- und einem Medienunternehmen gilt auch hier der Disclaimer: Sie sind schlecht für die Medienvielfalt und damit indirekt eine Bedrohung für die Demokratie und das offene Web. Der Journalismusforscher Jeff Jarvis bezeichnete die Zahlungen an Verlage als "Schweigegeld".
Amazon AWS gerät laut eines Berichts bei Kunden wegen Einschränkungen seines KI-Dienstes Bedrock in die Kritik. Trotz einer 8-Milliarden-Dollar-Investition in das KI-Start-up Anthropic kann AWS dessen Modelle über Bedrock laut The Information nicht zuverlässig bereitstellen. Kunden berichten von willkürlichen Nutzungsgrenzen und fehlenden Funktionen wie Prompt Caching, die bei Anthropics eigener API längst verfügbar sind. Einige Start-ups, darunter Lovable und Praxis AI, weichen deshalb auf die API von Anthropic aus. Intern bezeichneten AWS-Führungskräfte die Kapazitätsprobleme angeblich als "Desaster". AWS-Sprecherin Kate Vorys verteidigt die Limits nach außen als branchenüblich für "fairen Zugang" bei einer "beispiellosen Nachfrage". Es sei falsch, dass die Limits auf Kapazitätsengpässe zurückzuführen seien.
ChatGPT Search hatte in den letzten sechs Monaten bis Ende März 2025 laut eigenen Angaben circa 41,3 Millionen monatliche Nutzer. Das sind rund viermal so viele wie im Zeitraum bis Ende 31. Oktober 2024 (11,2 Millionen), wie ein Screenshot der Seite aus dem Januar zeigt. Die Zahlen stammen aus einem Pflicht-Bericht im Rahmen des EU-Digital Services Act (DSA). Zum Vergleich: Die KI-Suchmaschine Perplexity lag 2024 weltweit bei circa 15 Millionen monatlich aktiven Nutzern und im Oktober 2024 bei circa 400 Millionen Suchanfragen pro Monat. In Relation zu Google ist das alles noch klein: Der Quasi-Monopolist kommt laut Schätzungen auf rund 8,5 Milliarden Suchanfragen - pro Tag. Google baut zudem seine KI-Suche weiter aus.

Der wohl interessanteste o3-Benchmark ist die Ausperformance bei der Verarbeitung langer Kontexte. Bei 128K Token (etwa 96.000 Wörter) von maximal 200K Token erreicht o3 im Fiction.live-Benchmark als erstes Modell 100 Prozent – das ist vielversprechend für KI-Anwendungen mit sehr langen Texten. Nur Googles Gemini 2.5 Pro kann mithalten und kommt auf 90,6 Prozent. o3-mini und o4-mini fallen deutlich ab. Fiction.LiveBench prüft, wie gut KI-Modelle komplexe Geschichten und Zusammenhänge bei sehr langen Texten komplett verstehen und korrekt wiedergeben. Ein Negativbeispiel ist Metas Llama 4, das zwar mit einem Kontextfenster von bis zu zehn Millionen Token wirbt, das aber über eine einfache Wortsuche hinaus kaum brauchbar ist.
