Inhalt
newsletter Newsletter

Mit einer immer stärkeren Integration der generativen künstlichen Intelligenz in unser tägliches Leben, stehen die Themen wie Ethik und Regulierung im Fokus. Es bedarf neuer Lösungen, um mehr Transparenz über die Art, wie die KI-Technologie ihre Ergebnisse erzeugt, zu liefern.

Die Fragen rund um Bias, Sicherheit und Fairness rücken in den Vordergrund – und Tech-Unternehmen benötigen neue Ansätze, um diese Bedenken auszuräumen.

Synergie im Einsatz: Zwei Methoden für bessere Ergebnisse

Im Streben nach verantwortungsvolleren Innovationen, entwickelt sich ein neuer KI-Ansatz, der das Beste aus beiden Welten kombiniert: die Leistungsfähigkeit und Skalierbarkeit großer Sprachmodelle (LLMs) – mit der Präzision und Erklärbarkeit traditioneller maschineller Lernverfahren.

  • Große Sprachmodelle: LLMs wie GPT-4 verwenden einige der fortschrittlichsten Deep-Learning-Algorithmen, die je entwickelt wurden, um geschriebene Sprache zu verstehen und authentischen Text zu erzeugen. Sie bieten die notwendige Flexibilität und Skalierbarkeit, um große Datenmengen zu verarbeiten.
  • Traditionelle ML-Verfahren: Beim herkömmlichen maschinellen Lernen werden Modelle auf großen Datensätzen und statistische Methoden verwendet, um Vorhersagen zu treffen. Diese Verfahren bieten mehr Fairness und Transparenz durch interpretierbare Modelle, erklärbare "Feature Importance" und die Möglichkeit, Bias durch sorgfältiges Feature-Engineering, Algorithmendesign und Datenannotation abzuschwächen.

Durch Kombination oder Schichtung dieser Ansätze können KI-Entwickler Systeme schaffen, die sowohl nützlich als auch transparent sind. Obwohl LLMs Verzerrungen und Fairnessprobleme möglicherweise mit der Zeit durch Real-World-Tests beheben werden, wird es noch dauern, bis sie richtig funktionieren.

Bei skalierten Produkten, die von Millionen von Menschen genutzt werden, ermöglicht ein hybrider Ansatz schnelle Korrekturen innerhalb von Stunden oder Tagen, wobei das Vertrauen der Nutzer im Vordergrund steht.

Ein Beispiel der Kundenanwendung, in der ein hybrider KI-Ansatz eingesetzt wird, ist der Schreibassistent von Grammarly. Das KI-Unternehmen kombiniert mehrere Methoden, um zuverlässigere sowie kontextuell relevantere Ergebnisse zu erzielen.

Bei der Einführung von LLMs in die proprietäre Technologie hat Grammarlys Entwicklerteam Untersuchungen durchgeführt, um die Hypothese zu bestätigen, dass mehrschichtige Techniken zu besseren Gesamtergebnissen führen. Zu diesem Zweck wurde der Beitrag jeder Technologie im System quantitativ bewertet.

Die Ergebnisse der Bewertung wiesen Folgendes nach:

  • Texte, die mit generativer KI erstellt wurden, wiesen erwartungsgemäß relativ wenige Grammatik- und Rechtschreibprobleme auf. Quantitative Forschung bestätigte, dass eklatante grammatikalische Fehler in den Ausgaben selten sind.
  • Als der mit GPT-generierte Text jedoch anschließend durch Grammarly’s hauseigene KI- und Machine-Learning-Systeme lief, zeigten die Untersuchungen, dass zusätzliche stilistische und sicherheitsrelevante Verbesserungen möglich sind (z.B. bei inklusiver Sprache, einer aktiveren Sprache und Tonfall). Die Fülle der erzeugten stilistischen Probleme entsprach den Bedenken hinsichtlich der Qualität der vom GPT erzeugten Texte.
  • Im Wesentlichen bietet die hybride KI – also Kombination von LLMs und traditionellen ML-Verfahren – die Möglichkeit, die Gesamtqualität der GPT-Ausgaben zu verbessern.

Human-in-the-Loop im Fokus

Verantwortungsvolle KI-Entwicklung ist ein multidisziplinäres Unterfangen. Es geht nicht nur um die Technologie, sondern auch um den Menschen dahinter – von Datenwissenschaftlern, über Linguisten und Ingenieure bis hin zu Produktmanagern sowie Designern.

Im Mittelpunkt dieser funktionsübergreifenden Zusammenarbeit steht die Notwendigkeit, sowohl Voreingenommenheit zu bewerten und abzuschwächen als auch die Fairness einerseits bei den Daten, mit denen KI-Modelle trainiert werden, andererseits auch bei der Gestaltung der KI-Systeme selbst zu verbessern. Dies erfordert ein tiefes Verständnis der ethischen Implikationen von KI und ein Engagement für die Entwicklung von Technologien, die sicher und zuverlässig sind.

Es ist also wichtig, interne Experten und Forschungsteams in jede Phase der Entwicklung von KI-Produkten einzubeziehen. Hybride Technologien mit dem "Human-in-the-Loop"-Ansatz haben das Potenzial, die Art und Weise, wie Innovationen hervorgebracht werden, zu revolutionieren und KI-Werkzeuge zu erschaffen, die verantwortungsvoller sowie nutzerorientierter sind als je zuvor.

Hybride KI als Zukunftsansatz

Vom Gesundheitswesen über das Finanzwesen bis zum Verkehrswesen beginnen Unternehmen aus verschiedenen Branchen damit, diesen kombinierten Ansatz in der KI-Entwicklung zu übernehmen. Je mehr Organisationen das Potenzial dieses Verfahrens erkennen, desto mehr Innovationen und Fortschritte sind im Bereich der Künstlichen Intelligenz zu erwarten.

Bei einem Blick in deren Zukunft wird eine Tatsache klar: Ein hybrider Ansatz, der die Leistungsfähigkeit der LLMs mit der Präzision anderer maschineller Lernverfahren kombiniert, ist der verantwortungsvollste und näher am Nutzer orientiertere Weg, KI-basierte Produkte zu entwickeln. Indem wir die Vorteile beider Methoden nutzen, können wir KI-Systeme schaffen, die leistungsfähig, transparent und inklusiv sind.

Durch gemeinsame Anstrengungen zur Bewertung und Abschwächung von Bias sowie dem aktiven Bestreben nach mehr Fairness können wir sicherstellen, dass KI auf ethische Weise eingesetzt wird.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Joe Xavier

Joe Xavier ist Chief Technology Officer beim KI-Unternehmen Grammarly. Er und sein globales Engineering-Team konzentrieren sich auf die Entwicklung innovativer Schreibassistenztechnologien für eine stetig wachsende Nutzerbasis.

Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!