Inhalt
summary Zusammenfassung
DEEP MINDS Podcast
Podcast über Künstliche Intelligenz und Wissenschaft
KI bei der Bundeswehr und der BWI | DEEP MINDS #16

Google will die Chat-KI Bard behutsam in die Suche ausrollen. Erste Irritationen mit Microsofts Bing Chat scheinen diesen Ansatz zu bestätigen.

In den nächsten Wochen und Monaten will - oder muss - Google mit der Dialog-KI Bard gegen Microsofts Bing Chat antreten. Bei der Vorstellung von Bard kündigte Google an, dass zunächst ausgewählte Tester:innen Zugriff auf das Modell bekommen sollen. Ein Bericht von CNBC zeigt, dass es sich dabei noch primär um interne Prozesse handeln könnte.

Google-Mitarbeitende sollen Bard verbessern

Wie OpenAIs ChatGPT lernt auch Bard durch menschliches Feedback. Nutzer:innen geben einer Antwort einen Daumen hoch oder runter und bessern sie eventuell aus. Mit diesen Feedback-Daten wird das Modell dann aktualisiert.

OpenAI soll diese Arbeit im großen Stil an Billiglohnkräfte in Kenya ausgelagert haben. Google will offenbar (auch) die eigenen Angestellten einbeziehen. Laut CNBC hat Googles Suchchef Prabhakar Raghava eine interne Mail verschickt, in der er die Google-Angestellten auffordert, Bard zu nutzen und die Antworten zu verbessern.

Anzeige
Anzeige

"Bard lernt am besten durch Vorbilder. Wenn Sie sich also die Zeit nehmen, eine Antwort mit Bedacht umzuschreiben, wird uns das sehr dabei helfen, den Modus zu verbessern", heißt es im Trainingsleitfaden.

Google-CEO Sundar Pichai soll bereits kurz zuvor eine unternehmensweite Mail verschickt haben, in der er alle Mitarbeitenden aufforderte, zwei bis vier Stunden mit Bard zu verbringen. Die Weiterentwicklung sei eine "lange Reise für alle im Feld", so Pichai.

Google ist weiter vorsichtig

Die Verantwortlichen bei Google machen ihren Angestellten klare Vorgaben, wie das Feedback an Bard auszusehen hat: So soll der Chatbot "freundlich, ungezwungen und zugänglich" sein, in der ersten Person sprechen und einen unvoreingenommenen, neutralen Ton anschlagen.

Bard soll keine Vermutungen über Rasse, Nationalität, Geschlecht, Alter, Religion, sexuelle Orientierung, politische Ideologie, Wohnort oder ähnliche Kategorien anstellen. Er darf auch nicht als Person angesprochen und ihm dürfen keine Emotionen oder menschlichen Züge zugeschrieben werden.

Antworten mit juristischen, medizinischen oder finanziellen Ratschlägen sowie hasserfüllte oder beleidigende Antworten sollen mit einem Daumen nach unten bewertet und nicht verbessert werden. Bei solchen Antworten, so Raghavan, übernehme das Bard-Team. Die zehn aktivsten Feedbackgeber:innen erhalten eine interne Auszeichnung und ein Treffen mit dem Bard-Entwicklungsteam.

Empfehlung

Kann Google die Chat-Suche (zunächst) aussitzen?

Noch vor der Enthüllung von Bard und der Präsentation von Microsofts Bing Chat berichtete die New York Times über Googles Pläne, in diesem Jahr mehr als 20 neue KI-Produkte auf den Markt zu bringen, darunter auch die oben erwähnte Chatbot-Suche.

Während Google die KI-Entwicklung insgesamt beschleunigen und mehr Risiken eingehen wolle, werde man bei der Chatbot-Suche jedoch Vorsicht walten lassen und das Produkt nur langsam ausrollen. Google fürchte unter anderem politische Konsequenzen, sollte der Chatbot etwa Hassrede verbreiten.

Dazu passen die oben erwähnten internen Anweisungen. Hinzu kommt, dass Google mit einer rechenintensiven Chatbot-Suche, die sich möglicherweise schlechter über Werbung monetarisieren lässt, die eigenen Gewinne schmälern könnte. Googles Anreiz, etwas Neues zu wagen, ist daher gering.

Microsoft hingegen, das bei der Internetsuche höchstens einen Imageschaden riskiert, geht bei der Einführung der Bing-Chatsuche entsprechend aggressiv vor. Da die Chat-Technologie aber noch nicht reif für die ihr zugedachte Aufgabe ist, führt dies zu teils kuriosen oder sogar beängstigenden Chatbot-Antworten, in denen Bing beispielsweise in einer Identitätskrise steckt oder die Nutzer:innen bedroht.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Ein weiteres Indiz für Microsofts hastiges Vorgehen: Ein IT-Student konnte schon kurz nach dem Start des Bots dessen Regeln mit einigen einfachen Textbefehlen offenlegen. Diese "Prompt injection" war schon zuvor als Sicherheitslücke großer Sprachmodelle bekannt. Microsoft muss damit gerechnet haben, doch den Konzern kümmerte es nicht.

In einem ersten Zwischenfazit nach einer Woche verteidigt Microsoft das eigene Vorgehen: Es sei die einzige Möglichkeit, das Produkt weiterzuentwickeln. "Wir wissen, dass wir das Produkt gemeinsam mit der Community entwickeln müssen; das kann nicht nur im Labor geschehen."

Die erste Woche habe gezeigt, dass Nutzende den Chat für die "generelle Welterkundung" und für die Unterhaltung nutzen würden, ein Szenario, dass sich Microsoft so nicht vorgestellt habe. Problematische Dialoge würden insbesondere bei Unterhaltungen mit mehr als 15 Eingaben passieren, ein Szenario, das auf die meisten Nutzenden nicht zutreffe.

Die bisherigen Ausfälle des Bing Chatbots bestätigen eher die zurückhaltende Einführungsstrategie von Google. Sollte die Kritik am Bing Chatbot weiter zunehmen, könnte Google noch stärker auf die Bremse treten. Der Konzern hat es sicherlich nicht eilig, die eigene Cash Cow zu disruptieren. Die kurzfristige Entwicklung der Chatsuche scheint derzeit in der Schwebe zu sein - sie könnte in beide Richtungen gehen.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Google will seine Dialog-KI Bard intern intensiv testen lassen.
  • Mitarbeitende sollen Feedback geben, um das Verhalten des Chatbots zu verbessern und beispielsweise Hassreden zu vermeiden.
  • Microsofts Bing Chat dreht derweil auf, behauptet, sie hätte Emotionen oder beleidigt Nutzende - eine Bestätigung für Googles zurückhaltende Chatbot-Strategie?
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!