Multimodale Modelle können Bilder erkennen und deren Inhalt beschreiben. Dies gilt auch für Bilder, auf denen Personen abgebildet sind, was sich als problematisch erweisen könnte.
Die New York Times berichtet, dass OpenAI derzeit Gesichter auf Bildern maskieren und nicht von GPT-4 mit Bilderkennung verarbeiten lässt.
Dies betrifft insbesondere blinde Personen, die im Experiment "Be My Eyes" GPT-4 mit Bildverbesserung verwenden, um sich die Umgebung und auch Personen detailliert beschreiben zu lassen. Die Umgebungsbeschreibung ist weiterhin verfügbar, die Personenbeschreibung wurde jedoch kürzlich gesperrt und Gesichter auf Bildern werden verwischt.
OpenAI will nicht, dass GPT-4 für Gesichtserkennung missbraucht wird
GPT-4 mit Bildfunktion kann etwa prominente Personen wie den OpenAI-CEO Sam Altman erkennen, von dem es im KI-Training viele Bilder gesehen hat. Personen, die nicht auf massenhaft verfügbaren Internetbildern zu sehen sind, werden von GPT-4 nicht erkannt.
Die Identifizierungs- und Überwachungsfunktion ist daher bei Weitem nicht so umfangreich wie bei KI-Systemen wie ClearviewAI oder PimEyes, die für dieses Szenario optimiert sind und Personen anhand feiner Details bildübergreifend identifizieren können.
Neben der Identifikation ergeben sich für OpenAI jedoch weitere Probleme bei der Analyse von Personenbildern: Auch wenn die Person auf einem Bild selbst nicht bekannt ist, kann sie beschrieben und beispielsweise mit dem falschen Geschlecht oder falschen Gefühlszuständen in Verbindung gebracht werden.
Bei rund hundert Millionen Nutzern könnte dies zu zahlreichen Beschwerden führen. Zudem soll die Bildanalyse stark genug sein, um gängige Captcha-Systeme zu umgehen.
Auch falsche Identifizierungen, bei denen das Modell etwa die Rolle einer Person als CEO richtig erkennt, dieser Rolle aber einen falschen Namen zuordnet, seien möglich, sagt Sandhini Agarwal, OpenAI Policy Researcher.
"Wir wollen unbedingt, dass die Öffentlichkeit mit uns spricht", sagt Agarwal. "Wenn wir hören: 'Wir wollen das eigentlich nicht', dann sind wir damit sehr einverstanden."
Microsoft und Google blockieren Personenanalyse ebenfalls
Auch Googles Chatbot Bard bietet Bildanalysen an. Derzeit weigert sich Bard, Aussagen über Bilder von bekannten und unbekannten Personen zu machen und löscht ein hochgeladenes Personenbild ohne weitere Nachfrage. Googles visuelle Suche Lens hingegen erkennt ein Bild von Sam Altman und identifiziert ihn korrekt.
Microsoft integriert derzeit ebenfalls eine visuelle Bildsuche in den Bing Chat. Nach dem Hochladen eines Personenbildes weist Bing Chat darauf hin, dass das Bild "aus Datenschutzgründen unscharf" gemacht wird. Der Chatbot gibt jedoch Empfehlungen, wie die Person über Google Images, Social Media oder TinEyes gefunden werden kann.