KI in der Praxis

Samsung verbietet Nutzung von ChatGPT, Bard und generativer KI

Matthias Bastian
Das Samsung Logo an einem Firmengebäude, fotografiert durch einen Kirschblütenbaum.

Valentyn Chernetskyi, via Unsplash

Mitarbeitende von Samsung sollen sensible Daten in ChatGPT eingegeben haben. Der Elektronikriese verbietet deshalb die Nutzung und will neue Sicherheitsrichtlinien sowie eigene Modelle lancieren.

Wie Bloomberg unter Berufung auf ein internes Memo berichtet, hat Samsung die interne Nutzung von ChatGPT, Bard, Bing-Chat und ähnlichen generativen KI-Tools verboten. Ein Sprecher von Samsung bestätigte die Existenz des Memos.

Samsung befürchtet, dass die in die Tools eingegebenen Daten auf externen Servern gespeichert, von dort nicht mehr gelöscht und möglicherweise an andere Nutzerinnen und Nutzer weitergegeben werden könnten. Anfang April soll es einen Vorfall gegeben haben, bei dem Samsung-Entwickler internen Quellcode in ChatGPT eingegeben haben sollen.

ChatGPT als Kündigungsgrund

Samsungs Verbot von generativer KI gilt für alle vom Unternehmen zur Verfügung gestellten Computer und mobilen Geräte sowie für das interne Netzwerk. Mitarbeitende, die ChatGPT und Co. privat nutzen, dürfen dort keine persönlichen oder firmenbezogenen Informationen eingeben. Wer sich nicht daran halte, könne entlassen werden, heißt es in dem Memo.

Samsung arbeitet laut Bloomberg an einer Sperrfunktion für generative KI. Diese soll die weitere Nutzung von generativer KI vorübergehend unterbinden, bis noch zu entwickelnde Sicherheitsrichtlinien für den Einsatz der Technologie greifen, die die "Produktivität und Effizienz" der Mitarbeitenden erhöhen könnten, so Samsung. Laut Bloomberg arbeitet Samsung auch an eigenen KI-Tools für die Übersetzung und Zusammenfassung von Dokumenten.

Trend zum eigenen KI-Modell

Ein heikles Thema bei der Entwicklung von KI ist derzeit die Sicherheit der Daten von Unternehmen und Privatpersonen. Firmen wie OpenAI oder Microsoft gehen bisher sorglos bis rücksichtslos vor und sammeln alle verfügbaren Daten, um große KI-Modelle vorzutrainieren und anschließend zu verfeinern.

Ein weiteres mögliches Risiko beim Einsatz von generativer KI in Unternehmen besteht darin, dass die KI Inhalte generiert, die bereits durch ein anderes Unternehmen geschützt sind. Insbesondere große Unternehmen könnten es daher in Zukunft aus Gründen der Rechtssicherheit und des Datenschutzes vorziehen, eigene KI-Systeme zu trainieren, bei denen sie die zugrundeliegenden Trainingsdaten genau kennen, und diese lokal zu implementieren.

Dieser möglichen Entwicklung will OpenAI mit einer Business-Version von ChatGPT begegnen, die zumindest keine Eingabedaten mehr speichert oder zur KI-Optimierung verwendet. Über den Datenkorpus für das Training von GPT-4 macht OpenAI allerdings noch keine Angaben.