Der GPT-Store von OpenAI, der angepasste Versionen von ChatGPT anbietet, hat bereits Probleme mit Nutzern, die gegen die Regeln verstoßen, indem sie KI-Chatbots mit "virtuellen Freundinnen" erstellen. Diese Bots wie "Korean Girlfriend", "Virtual Sweetheart" und "Your AI Girlfriend, Tsu✨" verstoßen gegen die Nutzungsrichtlinien von OpenAI, die GPTs verbieten, die "romantische Freundschaften oder die Durchführung regulierter Aktivitäten fördern". OpenAI verwendet eine Kombination aus automatisierten Systemen, menschlicher Überprüfung und Nutzerberichten, um GPTs zu finden und zu bewerten, die möglicherweise gegen die Richtlinien verstoßen. Virtuelle Begleiter sind nicht neu, siehe character.ai, und an sich nichts Schlechtes. Aber wie Quartz bemerkt, hat es nur zwei Tage gedauert, bis die Benutzer diese Regeln gebrochen haben. Ich frage mich, was das für das Versprechen von OpenAI bedeutet, den Missbrauch von GPTs für Wahlpropaganda zu verhindern.

Bild: GPT Store Screenshot THE DECODER
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!