Themen Hub KI in der Praxis
Künstliche Intelligenz ist im Alltag gegenwärtig – vom „Googeln“ über Gesichtserkennung bis zum Staubsaugerroboter. KI-Werkzeuge werden immer elaborierter und unterstützen Menschen und Unternehmen effektiver bei ihren Aufgaben, etwa bei der Generierung von Grafiken, beim Texten oder Coden oder bei der Interpretation großer Datenmengen.
Welche KI-Werkzeuge gibt es, wie funktionieren sind, wie helfen sie im Alltag – und wie verändern sie unser Leben? Mit diesen Fragen befassen wir uns in der Rubrik Künstliche Intelligenz in der Praxis.
Midjourney erweitert seine KI-Video-Funktion: Ab sofort lassen sich Videos mit definierten Start- und Endbildern erstellen. Das ermöglicht nahtloses Looping oder eine Transformation eines Ausgangsbildes hin zu einem Endmotiv.
Zudem bringt Midjourney die Videogenerierung direkt in Discord, das bessere Interface bleibt aber weiter die Weboberfläche. Midjourney hat kürzlich sein Bildgenerierungsmodell auf Version 7 aktualisiert und einen neuen Entwurfsmodus eingeführt, kam aber zuletzt in die Schlagzeilen, weil es unter anderem von Disney wegen Urheberrechtsverstößen verklagt wird.
Meta hat Shengjia Zhao, Mitentwickler von ChatGPT, zum Chief Scientist des neuen Meta Superintelligence Labs ernannt.
Zhao unterstützte seit 2022 bei OpenAI entscheidende Projekte wie die Entwicklung der ersten RLHF-Pipeline für ChatGPT, zentrale Trainingsmethoden für GPT-4 sowie die Einführung der o‑Modellreihe für logisches Denken. Meta hat bisher kein Logikmodell veröffentlicht.
Zhao soll direkt mit Meta-CEO Mark Zuckerberg und Alexandr Wang, Ex-Scale-AI-Chef und neuer Chief AI Officer bei Meta, zusammenarbeiten. Die Personalie ist Teil einer milliardenschweren Fachpersonal-Offensive, die von Meta-Chef Mark Zuckerberg persönlich vorangetrieben wird.
Gemeinsam bauen wir ein erstklassiges, talentstarkes Team auf, das über die nötigen Ressourcen und den langfristigen Fokus verfügt, um die Grenzen der Superintelligenz-Forschung zu verschieben. Die nächsten Jahre werden sehr spannend!
Googles neue KI-Suchfunktion „Web Guide“ stellt bei einer Anfrage automatisch mehrere verwandte Suchanfragen.
Web Guide nutzt eine angepasste Version von Gemini, um sowohl Suchanfragen als auch Webinhalte besser zu verstehen. Das System "verwendet eine Query Fan-out-Technik und führt gleichzeitig mehrere verwandte Suchen durch, um die relevantesten Ergebnisse zu identifizieren", erklärt Google in der Ankündigung.
Diese Herangehensweise ermöglicht es, Webseiten zu entdecken, die Nutzer "möglicherweise vorher nicht gefunden hätten". Das Experiment gruppiert Web-Links thematisch – etwa nach spezifischen Aspekten einer Suchanfrage. Google testet das System zunächst im Search Labs-Programm und plant, KI-organisierte Ergebnisse schrittweise auch in anderen Bereichen der Suche einzuführen.
Video: Google
Es sieht so aus, als würde die Menschheit ihr finales Examen selbst nicht bestehen. Laut FutureHouse enthalten rund 29 Prozent der Biologie- und Chemiefragen im KI-Benchmark Humanity’s Last Exam (HLE) Antworten, die laut Fachliteratur falsch oder irreführend sind. Die Fehlerquote wurde durch eine Kombination aus menschlicher und KI-gestützter Analyse ermittelt.
HLE wurde als besonders schwieriger Test konzipiert, um moderne Sprachmodelle an ihre Grenzen zu bringen, enthält aber laut der Analyse viele missverständliche oder ungenaue Fragen. Die Überprüfung durch Fachleute war auf wenige Minuten begrenzt, eine vollständige Richtigkeitsprüfung war nicht gefordert. FutureHouse veröffentlichte nun ein geprüftes Teilset namens "HLE Bio/Chem Gold" auf HuggingFace.
Die US-Behörde FDA, die über Medikamentenzulassungen entscheidet, setzt auf das generative KI-System Elsa – obwohl das laut Insidern regelmäßig Studien halluziniert.
„Alles, wofür man keine Zeit hat, es zu überprüfen, ist unzuverlässig. Es halluziniert voller Überzeugung“, sagt ein aktueller FDA-Mitarbeiter über das KI-System „Elsa“ (Efficient Language System for Analysis), das eigentlich die Zulassung neuer Medikamente beschleunigen soll. Mehrere Beschäftigte berichten gegenüber CNN, dass Elsa regelmäßig nicht existierende Studien erfindet oder Forschungsdaten falsch darstellt – ein bekanntes Problem großer Sprachmodelle. Der FDA-Chef für KI, Jeremy Walsh, räumt ein: „Elsa unterscheidet sich nicht von vielen anderen großen Sprachmodellen und generativer KI. Sie kann möglicherweise halluzinieren.“
Trotz dieser bekannten Schwächen wird Elsa bereits zur Bewertung klinischer Protokolle und zur Risikoeinschätzung bei Inspektionen eingesetzt – und das in einem regulatorischen Vakuum, da es in den USA derzeit keine verbindlichen Regeln für den Einsatz von KI im Gesundheitswesen gibt.