Ein Nutzer von ChatGPT berichtet Ars Technica, dass er Zugang zu privaten Gesprächen anderer Nutzer hat.
Laut dem Ars-Leser Chase Whiteside soll ChatGPT private Gespräche, die Login-Daten und andere persönliche Informationen von nicht verbundenen Nutzern enthalten, leaken. Whiteside entdeckte dies, als er die ChatGPT-Plattform für eine eigene Anfrage nutzte und in seinem Chat-Verlauf zusätzliche Gespräche fand, die nicht von ihm stammten.
Die von Whiteside eingereichten Screenshots zeigen private Gespräche, in denen unter anderem Benutzernamen und Passwörter auftauchen, die offenbar mit einem Supportsystem für Mitarbeiter eines Apothekenportals für verschreibungspflichtige Medikamente in Verbindung stehen. Andere geleakte Gespräche enthalten den Namen einer Präsentation, Details eines unveröffentlichten Forschungsantrags und ein Skript in der Programmiersprache PHP.
Die betroffenen Nutzer scheinen unterschiedlich zu sein und nicht miteinander in Verbindung zu stehen. Von wann die Gespräche stammen, ist bisher nicht bekannt, nur in einem Fall ist mit 2020 ein Datum in den Texten enthalten.
OpenAI untersucht den Vorfall
Whiteside bemerkte die zusätzlichen Gespräche in seinem Chatverlauf am Montagmorgen, kurz nachdem er ChatGPT für eine eigene, nicht zusammenhängende Anfrage benutzt hatte. Die betreffenden Unterhaltungen waren zuvor nicht in seiner Historie enthalten.
Ein Vertreter von OpenAI erklärte gegenüber Ars Techica, dass der Bericht untersucht werde. In der Vergangenheit gab es ähnliche Vorfälle: Im März 2023 wurde ChatGPT von OpenAI offline genommen, nachdem ein Fehler dazu geführt hatte, dass Titel aus der Chat-Historie eines aktiven Nutzers an nicht verbundene Nutzer angezeigt wurden.
Der Fall zeigt, dass es nach wie vor ratsam ist, sensible Daten aus Anfragen an ChatGPT und andere KI-Dienste - soweit möglich - zu entfernen.