Themen Hub KI in der Praxis
Künstliche Intelligenz ist im Alltag gegenwärtig – vom „Googeln“ über Gesichtserkennung bis zum Staubsaugerroboter. KI-Werkzeuge werden immer elaborierter und unterstützen Menschen und Unternehmen effektiver bei ihren Aufgaben, etwa bei der Generierung von Grafiken, beim Texten oder Coden oder bei der Interpretation großer Datenmengen.
Welche KI-Werkzeuge gibt es, wie funktionieren sind, wie helfen sie im Alltag – und wie verändern sie unser Leben? Mit diesen Fragen befassen wir uns in der Rubrik Künstliche Intelligenz in der Praxis.
Uber Eats manipuliert jetzt Essensbilder mithilfe generativer KI.
Uber Eats setzt generative KI ein, um „niedrigqualitative Essensbilder“ auf Menüs zu erkennen und zu verbessern. Dabei werden nicht nur Licht, Auflösung oder Bildausschnitt verändert. Die KI kann das Essen auch „auf andere Teller oder Hintergründe editieren“ – und sogar „das Essen selbst anpassen, etwa es vergrößern oder Lücken auffüllen beim digitalen Neu-Anrichten“.
Diese Form der Bildmanipulation geht über klassische Retusche oder generische Stock-Fotos hinaus: Sie erzeugt potenziell authentisch wirkende Darstellungen von Gerichten, die nie tatsächlich existierten.

Cohere bringt mit Command A Vision ein KI-Modell heraus, das besonders gut Bilder, Diagramme, PDFs und andere visuelle Daten analysieren kann. Laut Cohere schneidet das Modell in Benchmarks etwas besser ab als GPT-4.1, Llama 4 Maverick und Mistral Medium 3.
Die OCR-Funktion versteht nicht nur Text, sondern auch das Layout und die Struktur von Dokumenten wie Rechnungen oder Formularen und kann die extrahierten Daten strukturiert im JSON-Format ausgeben. Zudem kann Command A Vision reale Szenen analysieren, um etwa Risiken in Industrieanlagen zu erkennen.

Command A Vision ist über die Cohere-Plattform und für Forschungszwecke über Hugging Face verfügbar. Das Modell läuft lokal mit zwei A100-Grafikprozessoren oder einem H100-Prozessor mit 4-Bit-Quantisierung.
Black Forest Labs und Krea AI haben das offene Text-zu-Bild-Modell FLUX.1 Krea [dev] veröffentlicht. Es soll realistischere Bilder mit weniger überzeichneten KI-typischen Texturen erzeugen. Das Modell basiert auf FLUX.1 [dev] und ist mit dessen Architektur kompatibel. Es wurde speziell für flexible Anpassungen und den Einsatz in nachgelagerten Anwendungen entwickelt.
Die Modellgewichte sind auf Hugging Face verfügbar, kommerzielle Lizenzen über das BFL Licensing Portal. API-Zugänge bieten Partner wie FAL, Replicate, Runware, DataCrunch und TogetherAI.
Today we are releasing FLUX.1 Krea [dev] - a new state-of-the-art open-weights FLUX model, built for photorealism.
Developed in collaboration with @krea_ai, this model is focused on images with unique aesthetics. No “AI look”, no blown-out highlights, just natural detail. pic.twitter.com/0YCUyO6BbI
— Black Forest Labs (@bfl_ml) July 31, 2025
Google startet Opal – ein Tool, das KI-Mini-Apps ohne Programmierung per natürlicher Sprache erstellt.
Mit Opal können Nutzer komplexe Arbeitsabläufe durch einfache Beschreibungen in natürlicher Sprache aufbauen. Das experimentelle Tool verknüpft automatisch Prompts, KI-Modelle und andere Werkzeuge zu funktionsfähigen Anwendungen und übersetzt diese in visuelle Workflows.
Nutzer können ihre erstellten Apps mit anderen teilen, die diese dann mit ihrem eigenen Google-Account verwenden können. Opal startet zunächst als öffentliche Beta nur in den USA und soll durch Community-Feedback weiterentwickelt werden.