Inhalt
summary Zusammenfassung
DEEP MINDS Podcast
Podcast über Künstliche Intelligenz und Wissenschaft
KI bei der Bundeswehr und der BWI | DEEP MINDS #16

Mitarbeitende von Samsung sollen sensible Daten in ChatGPT eingegeben haben. Der Elektronikriese verbietet deshalb die Nutzung und will neue Sicherheitsrichtlinien sowie eigene Modelle lancieren.

Wie Bloomberg unter Berufung auf ein internes Memo berichtet, hat Samsung die interne Nutzung von ChatGPT, Bard, Bing-Chat und ähnlichen generativen KI-Tools verboten. Ein Sprecher von Samsung bestätigte die Existenz des Memos.

Samsung befürchtet, dass die in die Tools eingegebenen Daten auf externen Servern gespeichert, von dort nicht mehr gelöscht und möglicherweise an andere Nutzerinnen und Nutzer weitergegeben werden könnten. Anfang April soll es einen Vorfall gegeben haben, bei dem Samsung-Entwickler internen Quellcode in ChatGPT eingegeben haben sollen.

ChatGPT als Kündigungsgrund

Samsungs Verbot von generativer KI gilt für alle vom Unternehmen zur Verfügung gestellten Computer und mobilen Geräte sowie für das interne Netzwerk. Mitarbeitende, die ChatGPT und Co. privat nutzen, dürfen dort keine persönlichen oder firmenbezogenen Informationen eingeben. Wer sich nicht daran halte, könne entlassen werden, heißt es in dem Memo.

Anzeige
Anzeige

Samsung arbeitet laut Bloomberg an einer Sperrfunktion für generative KI. Diese soll die weitere Nutzung von generativer KI vorübergehend unterbinden, bis noch zu entwickelnde Sicherheitsrichtlinien für den Einsatz der Technologie greifen, die die "Produktivität und Effizienz" der Mitarbeitenden erhöhen könnten, so Samsung. Laut Bloomberg arbeitet Samsung auch an eigenen KI-Tools für die Übersetzung und Zusammenfassung von Dokumenten.

Trend zum eigenen KI-Modell

Ein heikles Thema bei der Entwicklung von KI ist derzeit die Sicherheit der Daten von Unternehmen und Privatpersonen. Firmen wie OpenAI oder Microsoft gehen bisher sorglos bis rücksichtslos vor und sammeln alle verfügbaren Daten, um große KI-Modelle vorzutrainieren und anschließend zu verfeinern.

Ein weiteres mögliches Risiko beim Einsatz von generativer KI in Unternehmen besteht darin, dass die KI Inhalte generiert, die bereits durch ein anderes Unternehmen geschützt sind. Insbesondere große Unternehmen könnten es daher in Zukunft aus Gründen der Rechtssicherheit und des Datenschutzes vorziehen, eigene KI-Systeme zu trainieren, bei denen sie die zugrundeliegenden Trainingsdaten genau kennen, und diese lokal zu implementieren.

Dieser möglichen Entwicklung will OpenAI mit einer Business-Version von ChatGPT begegnen, die zumindest keine Eingabedaten mehr speichert oder zur KI-Optimierung verwendet. Über den Datenkorpus für das Training von GPT-4 macht OpenAI allerdings noch keine Angaben.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Samsung verbietet nach einem Vorfall den Einsatz von generativer KI im eigenen Unternehmen, bis entsprechende Sicherheitsrichtlinien entwickelt wurden.
  • Neben dem unzureichenden Datenschutz besteht für Unternehmen das Risiko, dass ein KI-System bereits geschützte Inhalte generiert.
  • Samsung soll daher auch an eigenen KI-Modellen arbeiten, ein Trend, der sich in der Branche durchsetzen könnte.
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!