Inhalt
summary Zusammenfassung

Multimodale Modelle können Bilder erkennen und deren Inhalt beschreiben. Dies gilt auch für Bilder, auf denen Personen abgebildet sind, was sich als problematisch erweisen könnte.

Die New York Times berichtet, dass OpenAI derzeit Gesichter auf Bildern maskieren und nicht von GPT-4 mit Bilderkennung verarbeiten lässt.

Dies betrifft insbesondere blinde Personen, die im Experiment "Be My Eyes" GPT-4 mit Bildverbesserung verwenden, um sich die Umgebung und auch Personen detailliert beschreiben zu lassen. Die Umgebungsbeschreibung ist weiterhin verfügbar, die Personenbeschreibung wurde jedoch kürzlich gesperrt und Gesichter auf Bildern werden verwischt.

OpenAI will nicht, dass GPT-4 für Gesichtserkennung missbraucht wird

GPT-4 mit Bildfunktion kann etwa prominente Personen wie den OpenAI-CEO Sam Altman erkennen, von dem es im KI-Training viele Bilder gesehen hat. Personen, die nicht auf massenhaft verfügbaren Internetbildern zu sehen sind, werden von GPT-4 nicht erkannt.

Anzeige
Anzeige

Die Identifizierungs- und Überwachungsfunktion ist daher bei Weitem nicht so umfangreich wie bei KI-Systemen wie ClearviewAI oder PimEyes, die für dieses Szenario optimiert sind und Personen anhand feiner Details bildübergreifend identifizieren können.

Neben der Identifikation ergeben sich für OpenAI jedoch weitere Probleme bei der Analyse von Personenbildern: Auch wenn die Person auf einem Bild selbst nicht bekannt ist, kann sie beschrieben und beispielsweise mit dem falschen Geschlecht oder falschen Gefühlszuständen in Verbindung gebracht werden.

Bei rund hundert Millionen Nutzern könnte dies zu zahlreichen Beschwerden führen. Zudem soll die Bildanalyse stark genug sein, um gängige Captcha-Systeme zu umgehen.

Auch falsche Identifizierungen, bei denen das Modell etwa die Rolle einer Person als CEO richtig erkennt, dieser Rolle aber einen falschen Namen zuordnet, seien möglich, sagt Sandhini Agarwal, OpenAI Policy Researcher.

"Wir wollen unbedingt, dass die Öffentlichkeit mit uns spricht", sagt Agarwal. "Wenn wir hören: 'Wir wollen das eigentlich nicht', dann sind wir damit sehr einverstanden."

Empfehlung

Microsoft und Google blockieren Personenanalyse ebenfalls

Auch Googles Chatbot Bard bietet Bildanalysen an. Derzeit weigert sich Bard, Aussagen über Bilder von bekannten und unbekannten Personen zu machen und löscht ein hochgeladenes Personenbild ohne weitere Nachfrage. Googles visuelle Suche Lens hingegen erkennt ein Bild von Sam Altman und identifiziert ihn korrekt.

Microsoft integriert derzeit ebenfalls eine visuelle Bildsuche in den Bing Chat. Nach dem Hochladen eines Personenbildes weist Bing Chat darauf hin, dass das Bild "aus Datenschutzgründen unscharf" gemacht wird. Der Chatbot gibt jedoch Empfehlungen, wie die Person über Google Images, Social Media oder TinEyes gefunden werden kann.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • OpenAI maskiert derzeit Gesichter auf Bildern und verarbeitet diese nicht mit GPT-4, um einen Missbrauch der KI für die Gesichtserkennung zu verhindern.
  • Blinde Nutzer im "Be My Eyes"-Experiment sind davon betroffen, da Personenbeschreibungen nicht mehr möglich sind. Detaillierte Umgebungsbeschreibungen sind weiterhin verfügbar.
  • Auch Google und Microsoft blockieren die Personenanalyse in ihren KI-basierten Systemen wie Google Bard und Bing Chat aus Datenschutzgründen.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!