OpenAI nutzt angepasste ChatGPT-Version zur Jagd auf interne Whistleblower
OpenAI setzt eine spezielle Version von ChatGPT ein, um interne Informationslecks aufzuspüren. Das berichtet The Information unter Berufung auf eine mit dem Vorgang vertraute Person. Wenn ein Nachrichtenartikel über interne Vorgänge bei OpenAI erscheint, füttern Sicherheitsmitarbeiter den Text in diese ChatGPT-Version, die Zugriff auf interne Dokumente sowie Slack- und E-Mail-Nachrichten der Mitarbeiter hat.
Das System kann dann mögliche Quellen des Lecks vorschlagen, indem es Dateien oder Kommunikationskanäle identifiziert, die die veröffentlichten Informationen enthalten, und zeigt, wer darauf Zugriff hatte. Ob OpenAI mit dieser Methode tatsächlich schon jemanden überführt hat, ist nicht bekannt.
OpenAI-Ingenieure stellten kürzlich die Architektur eines internen KI-Agenten vor, der hier zum Einsatz kommen könnte: Er soll Mitarbeitern komplexe Datenanalysen in natürlicher Sprache ermöglichen und hat auch Zugang zu institutionellem Wissen in Slack-Nachrichten, Google Docs und mehr.
KI-News ohne Hype – von Menschen kuratiert
Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar"‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.
Jetzt abonnieren