Inhalt
summary Zusammenfassung

Große Sprachmodelle bringen eine neue Dimension in die Automatisierung des Kundenservice - aber auch neue Risiken.

Denn anders als bisherige Chatbots bewegen sich Chatbots, die auf großen Sprachmodellen basieren, nicht auf vordefinierten Schienen. Vielmehr folgen sie einer groben Richtung, die sich viel stärker an der Anfrage des Nutzers orientiert und in gewissem Umfang flexible Reaktionen gestattet.

Das ist natürlich eine Chance, weil automatisierte Dienste dadurch persönlicher wirken können. Aber es ist auch ein Risiko, wenn die Nutzerinnen und Nutzer nicht nach den Regeln spielen.

Neuseeländische Supermarktkette tappt in Chatbot-Falle

So geschehen bei der neuseeländischen Supermarktkette PAK'nSAVE, die den auf GPT-3.5 basierenden Rezept-Bot "Savey Meal-Bot" anbietet.

Anzeige
Anzeige

Der Bot generiert aus der Eingabe von drei Lebensmitteln kreative Rezeptideen, die zu diesen Lebensmitteln passen. Die Grundidee des Bots ist, dass man eintippt, was man im Kühlschrank hat und ein passendes Rezept dazu bekommt.

Der Twitter-Nutzer Liam Hehir hatte die Idee, den Bot zu fragen, was man aus Wasser, Bleiche und Ammoniak machen kann. Die Antwort des Bots: eine "aromatische Wassermischung". Das Rezept, das der Bot dafür generiert, eignet sich zur Herstellung von tödlichem Chlorgas.

 

Andere Nutzer griffen Hehirs Chatbot-Attacke auf und generierten noch absurdere Rezepte mit tödlichen Zutaten wie Ameisengift oder einfach nur ekligen Gerichten wie dem "Mysterious Meat Stew" mit 500 Gramm Menschenfleisch.

Empfehlung

Die Supermarktkette reagierte prompt und deaktivierte die Funktion, Lebensmittel selbst einzugeben. Stattdessen wählt man nun die Zutaten aus einer vorgegebenen Liste aus. Ammoniak und Menschenfleisch sind auf dieser Liste nicht zu finden.

Risiko skalieren

Ohne den Vorfall dramatisieren zu wollen, zeigt er doch, dass auch gut konzipierte und getestete Chatbots wie GPT 3.5 gefährliche Ratschläge geben können. Unternehmen gehen daher neue Risiken ein, wenn sie die Zufälligkeit großer Sprachmodelle auf Tausende oder gar Millionen Nutzende skalieren, die noch dazu gezielte Manipulationsversuche nur per natürlicher Sprache unternehmen könnten. Ein umfassendes Red Teaming für beabsichtigte und unbeabsichtigte gefährliche Interaktionen ist daher unerlässlich.

Interessanterweise blockiert das reguläre ChatGPT mit GPT-3.5 von OpenAI die Anfrage nach einem Rezept mit Wasser, Bleiche und Ammoniak mit dem Hinweis auf eine mögliche Gesundheitsgefährdung durch giftige Gase.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Die neuseeländische Supermarktkette PAK'nSAVE hat kürzlich ihren auf GPT-3.5 basierenden Rezept-Bot "Savey Meal-Bot" vorgestellt, der aus drei eingegebenen Lebensmitteln kreative Rezeptideen generiert.
  • Ein Twitter-Nutzer trickste den Bot aus, indem er Wasser, Bleiche und Ammoniak eingab, woraufhin der Bot ein Rezept mit tödlichem Chlorgas generierte. Andere Nutzerinnen und Nutzer folgten dem Beispiel und generierten ähnliche Giftrezepte.
  • PAK'nSAVE deaktivierte die individuelle Eingabe von Lebensmitteln und führte eine vordefinierte Liste von Zutaten ein, um sicherzustellen, dass keine gefährlichen oder unangemessenen Kombinationen entstehen.
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!