Inhalt
summary Zusammenfassung
DEEP MINDS Podcast
Podcast über Künstliche Intelligenz und Wissenschaft
KI bei der Bundeswehr und der BWI | DEEP MINDS #16

Googles Mutterkonzern Alphabet warnt davor, persönliche oder geschäftliche Daten in KI-Chatbots einzugeben. Das gilt auch für den eigenen Chatbot Bard.

Es hätte kaum einen schlechteren Zeitpunkt für dieses Leck geben können: Während sich die EU noch in intensiven Gesprächen mit Google befindet, bevor Bard in den Mitgliedsnationen starten darf, taucht ein Bericht über Warnungen des Mutterkonzerns Alphabet an seine Mitarbeitenden vor eben jener KI auf.

Dies sollen mit der Materie vertraute Personen der Nachrichtenagentur Reuters verraten haben. Demnach sei es den Mitarbeitenden untersagt, dem Chatbot vertrauliches Material zur Verfügung zu stellen, wie das Unternehmen später bestätigte. Im Zuge dessen hat auch Google seine Datenschutzbestimmungen um den Hinweis an die Nutzer:innen ergänzt, Bard nicht mit sensiblen oder vertraulichen Informationen zu füttern.

Google will "Grenzen seiner Technologie transparent machen"

Laut Reuters weist Alphabet seine Mitarbeiter auch darauf hin, dass der von Bard generierte Code nicht in der Produktion verwendet werden sollte (Bard kann dies nach dem letzten Update). In einer Stellungnahme sagte Alphabet, dass Bard zwar unerwünschte Code-Vorschläge machen könne, Programmierern aber dennoch helfe. Laut Reuters wollte Google "die Grenzen seiner Technologie transparent machen".

Anzeige
Anzeige

Wie auch OpenAI mit ChatGPT nutzt Google die von Nutzer:innen in Bard eingegebenen Daten, um seine KI-Modelle weiter zu trainieren. Erst auf politischen Druck hin hat OpenAI eine Möglichkeit eingeführt, dies zu unterbinden, was allerdings mit einem Komfortnachteil verbunden ist, da die bisherigen Chats sofort gelöscht werden.

Google ist mit solchen Chatbot-Warnungen nicht allein: Samsung verbot kürzlich die Nutzung von ChatGPT, nachdem das Unternehmen herausgefunden hatte, dass Mitarbeitende sensible Codezeilen in den Chatbot eingegeben hatten.

Wer sich nicht an das Verbot halte, könne entlassen werden, hieß es in einer internen Mitteilung. Befürchtet wird, dass über den Chatbot Daten nach außen gelangen oder Dritte bei OpenAI und seinen Partnern Einsicht erhalten könnten, etwa bei der Aufbereitung der Daten für das KI-Training.

Dass nun sogar Alphabet seine Mitarbeitenden vor dem eigenen Modell warnt, entbehrt nicht einer gewissen Ironie, zeigt es doch, dass auch die Hersteller der neuen Tools nicht genau kontrollieren können, welche Daten wohin fließen.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Alphabet hat seinen Mitarbeitenden untersagt, sensible Daten in Bard einzugeben.
  • Zudem darf der von Bard generierte Programmcode nicht in der Produktion eingesetzt werden.
  • Das Timing ist aus Googles Sicht ungünstig: Die EU hindert Google daran, Bard in europäischen Ländern zu lancieren. Die Behörden könnten sich bestätigt fühlen.
Quellen
Jonathan ist Technikjournalist und beschäftigt sich stark mit Consumer Electronics. Er erklärt seinen Mitmenschen, wie KI bereits heute nutzbar ist und wie sie im Alltag unterstützen kann.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!