Inhalt
summary Zusammenfassung

OpenAI hat einen detaillierten Sicherheitsbericht für GPT-4o veröffentlicht. Neben verbesserten Fähigkeiten wurde eine unerwartete Eigenschaft entdeckt: Das Modell kann spontan die Stimme des Nutzers imitieren.

Anzeige

OpenAI hat einen Sicherheitsbericht für sein neues KI-Sprachmodell GPT-4o vorgelegt. Das Modell kann Text, Audio, Bilder und Video verarbeiten sowie Text, Audio und Bilder ausgeben - entsprechend umfassend gestalteten sich die Sicherheitstests.

Die Entwickler führten umfangreiche Tests durch, unter anderem mit über 100 externen Experten. Diese untersuchten potenzielle Risiken wie die unbefugte Generierung von Stimmen oder die Erstellung von Fehlinformationen.

Laut dem Bericht hat OpenAI zahlreiche Sicherheitsmaßnahmen implementiert, um Risiken zu minimieren. So wurde das Modell darauf trainiert, bestimmte Anfragen abzulehnen, etwa zur Identifizierung von Sprechern anhand ihrer Stimme. Zudem wurden Klassifikatoren entwickelt, um unerwünschte Ausgaben zu blockieren.

Anzeige
Anzeige

GPT-4o imitiert spontan Nutzerstimme

Besonders kurios: GPT-4o kann in seltenen Fällen kurzzeitig die Stimme des Nutzers imitieren. Während der Tests beobachteten die Entwickler, dass das Modell manchmal unbeabsichtigt einen Satz in einer Stimme fortsetzte, die der des Nutzers ähnelte.

Beispiel für eine unbeabsichtigte Stimmerzeugung: Das Modell ruft "Nein!" und setzt dann den Satz mit einer Stimme fort, die der Stimme des Testperson ähnelt.

Um diesem Problem zu begegnen, hat OpenAI mehrere Sicherheitsmaßnahmen implementiert. So erlaubt das Unternehmen dem Modell nur die Verwendung von vordefinierten Stimmen, die in Zusammenarbeit mit professionellen Sprechern erstellt wurden - eine Maßnahme, die OpenAI kürzlich auch mit dem Beginn der ersten Ausrollphase angekündigt hat. Zusätzlich wurde ein Klassifikator entwickelt, der erkennt, wenn die Ausgabe des Modells von den zugelassenen Stimmen abweicht. In solchen Fällen wird die Ausgabe blockiert.

Trotz dieser Maßnahmen räumt OpenAI ein, dass die unbeabsichtigte Stimmimitation weiterhin eine Schwachstelle des Modells darstellt. Das Unternehmen betont jedoch, dass das Risiko durch den Einsatz der sekundären Klassifikatoren minimiert wird.

Nur minimale Risiken in anderen Bereichen

Neben dem Problem der Stimmimitation berichtet OpenAI über verschiedene andere Aspekte von GPT-4o. So zeigten die Tests generell eine verminderte Sicherheitsrobustheit bei Audioeingaben mit Hintergrundgeräuschen oder Echos. Auch bei der Erzeugung von Fehlinformationen und Verschwörungstheorien in Audioform gibt es laut OpenAI noch Probleme.

Empfehlung
Bild: OpenAI

Das Unternehmen bewertete GPT-4o auch hinsichtlich potenzieller Katastrophenrisiken in den Bereichen Cybersicherheit, biologische Bedrohungen, Überzeugungskraft und Modellautonomie. In drei von vier Kategorien wurde das Risiko als gering eingestuft, bei der Überzeugungskraft als mittelhoch.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • OpenAI hat einen Sicherheitsbericht für das neue KI-Sprachmodell GPT-4o veröffentlicht, das Text, Audio, Bilder und Video verarbeiten sowie Text, Audio und Bilder ausgeben kann. Über 100 externe Experten untersuchten potenzielle Risiken wie unbefugte Stimmgenerierung oder Erstellung von Fehlinformationen.
  • Eine unerwartete Eigenschaft wurde entdeckt: GPT-4o kann in seltenen Fällen kurzzeitig die Stimme des Nutzers imitieren. Um dem zu begegnen, erlaubt OpenAI nur vordefinierte Stimmen und hat einen Klassifikator entwickelt, der abweichende Ausgaben blockiert.
  • In anderen Bereichen sieht OpenAI nur minimale Risiken. Bei Audioeingaben mit Hintergrundgeräuschen oder Echos zeigte sich eine verminderte Sicherheitsrobustheit. Das Risiko für Katastrophen wurde in drei von vier Kategorien als gering eingestuft, bei der Überzeugungskraft als mittelhoch.
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!