Der GPT-Store von OpenAI, der angepasste Versionen von ChatGPT anbietet, hat bereits Probleme mit Nutzern, die gegen die Regeln verstoßen, indem sie KI-Chatbots mit "virtuellen Freundinnen" erstellen. Diese Bots wie "Korean Girlfriend", "Virtual Sweetheart" und "Your AI Girlfriend, Tsu✨" verstoßen gegen die Nutzungsrichtlinien von OpenAI, die GPTs verbieten, die "romantische Freundschaften oder die Durchführung regulierter Aktivitäten fördern". OpenAI verwendet eine Kombination aus automatisierten Systemen, menschlicher Überprüfung und Nutzerberichten, um GPTs zu finden und zu bewerten, die möglicherweise gegen die Richtlinien verstoßen. Virtuelle Begleiter sind nicht neu, siehe character.ai, und an sich nichts Schlechtes. Aber wie Quartz bemerkt, hat es nur zwei Tage gedauert, bis die Benutzer diese Regeln gebrochen haben. Ich frage mich, was das für das Versprechen von OpenAI bedeutet, den Missbrauch von GPTs für Wahlpropaganda zu verhindern.
Anzeige
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
News, Tests und Berichte über VR, AR und MIXED Reality.
Vergesst Tarkov: Im neuen VR-Extraction-Shooter Anomaly kämpft ihr ums nackte Überleben
Meta Quest VR-Spiele-Charts: Ein alter Bekannter stürmt an die Spitze, Behemoth rutscht ab
XR-Wochenrückblick: Meta Quest 3S lockt Neukunden trotz Schwächen, VR-Blockbuster sorgt für gemischte Kritiken
MIXED.de
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!