Inhalt
summary Zusammenfassung

Microsoft kündigt eine neue Funktion für Azure AI Content Safety an, die nicht nur Inkonsistenzen in KI-Ausgaben erkennt, sondern diese auch korrigiert. Damit soll das Vertrauen in generative KI-Technologien gestärkt werden.

Anzeige

Microsoft hat eine Vorschau der neuen "Korrekturfunktion" innerhalb der Groundedness Detection von Azure AI Content Safety angekündigt. Groundedness Detection ist eine Funktion, die unzureichend begründete oder halluzinierte Inhalte in KI-Ausgaben identifizieren soll, indem sie die KI-Ausgaben mit zugrundeliegenden Dokumenten abgleicht. Eine ähnliche Funktion bietet Google bei Vertex AI mit dem Google Search Grounding.

Keine absolute Verbesserung, aber bessere Übereinstimmung mit den Grundlagendokumenten

Wie Microsoft betont, verbessert sie die Zuverlässigkeit und Vertrauenswürdigkeit der KI-Ausgaben, garantiert aber keine absolute Genauigkeit. Sie hilft dabei, die Übereinstimmung der generierten Inhalte mit den Quelldokumenten zu verbessern.

Die generative KI-Anwendung muss daher mit Grundlagendokumenten verbunden sein, die für die Dokumentenzusammenfassung und RAG-basierte Frage-Antwort-Szenarien verwendet werden.

Anzeige
Anzeige

Wird dann ein unzureichend begründeter Satz erkannt, löst dies eine neue Anfrage an ein kleines KI-Modell zur Korrektur aus. Das Large Language Model (LLM) bewertet den unbegründeten Satz anhand des Grundlagendokuments. OpenAI stellte kürzlich ein ähnliches Verfahren vor.

Wenn der Satz keinen Inhalt enthält, der sich auf das Grundlagendokument bezieht, kann er vollständig gefiltert werden. Wenn jedoch Inhalte aus dem Grundlagendokument vorhanden sind, schreibt das Foundation Model den unbegründeten Satz so um, dass er mit dem Grundlagendokument übereinstimmt.

Die Daten in einem Paper zu einer Vorabversion der Methode zeigen, dass die "Groundedness Detection" sehr effektiv darin ist, Inkonsistenzen zwischen KI-generierten Texten und den zugrundeliegenden Quellen zu erkennen und zu korrigieren. Nach Anwendung des Verfahrens verbleiben nur noch sehr wenige (im günstigsten Fall 0,1-1 %) dieser spezifischen Probleme.

Das bedeutet jedoch nicht, dass 99 Prozent aller generierten Inhalte fehlerfrei sind: Die Methode konzentriert sich nur auf bestimmte Arten von Inkonsistenzen und sagt nichts über die Gesamtgenauigkeit aus.

Halluzinationen erschweren Microsoft den Verkauf von KI

Bemerkenswerterweise räumt Microsoft in der Ankündigung ein, dass Halluzinationen bisher ein Showstopper für die Verbreitung der generativen KI sind. Das Unternehmen betont, dass Bedenken hinsichtlich Halluzinationen viele Anwendungen der generativen KI in kritischen Bereichen wie der Medizin zurückgehalten haben.

Empfehlung

Ebenso hätten "Halluzinationsbedenken" einen breiteren Einsatz von Copiloten in der Öffentlichkeit verhindert. Die neue Korrekturfunktion soll helfen, diese Anwendungen zu ermöglichen.

Kritiker könnten anmerken, dass Microsoft hier KI-Fehler mit KI bekämpfen will, die noch immer für Halluzinationen, auch bekannt als Bullshit, anfällig ist, sodass das Problem nicht grundlegend gelöst und möglicherweise ein falsches Gefühl von Sicherheit vermittelt wird.

Die KI-Suche von Microsoft hat in der Vergangenheit Wahlinformationen und Informationen über eine Person erfunden.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Microsoft stellt eine neue Korrekturfunktion für Azure AI Content Safety vor, die Inkonsistenzen zwischen KI-Ausgaben und Quelldokumenten erkennt und korrigiert, um die Zuverlässigkeit generativer KI zu verbessern.
  • Die "Groundedness Detection" reduziert laut Microsofts Daten spezifische Probleme auf 0,1-1 Prozent, garantiert aber keine absolute Genauigkeit. Sie hilft, generierte Inhalte besser mit Ausgangsdokumenten abzugleichen.
  • Microsoft räumt ein, dass Halluzinationen die Verbreitung von KI in kritischen Bereichen wie der Medizin behindert haben, und hofft, mit dieser neuen Funktion solche Anwendungen sowie den breiteren Einsatz von Copilots durch Unternehmen zu ermöglichen.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!