Eine neue Studie zeigt, dass GPT-4 erstaunlich gut darin ist, Gesichter zu erkennen, Geschlechter zu bestimmen und das Alter von Personen auf Fotos einzuschätzen - obwohl es dafür nicht explizit trainiert wurde.
Forscher der Norwegian University of Science and Technology und der Mizani und Idiap Research Institute haben in einer aktuellen Studie die biometrischen Fähigkeiten von ChatGPT untersucht.
Das Ergebnis: GPT-4 kann Gesichter erkennen, Geschlechter bestimmen und das Alter von Personen auf Fotos einschätzen - und das mit einer Genauigkeit, die mit spezialisierten Algorithmen vergleichbar ist.
Bei der Geschlechtserkennung erreichte ChatGPT GPT-4 sogar eine perfekte Trefferquote von 100 Prozent auf einem Datensatz mit 5.400 ausgewogenen Bildern. Damit übertraf es das DeepFace-Modell, das speziell für diese Aufgabe entwickelt wurde und 99 Prozent Genauigkeit erzielte.
Auch bei der Altersschätzung zeigte ChatGPT beachtliche Fähigkeiten. Auf dem UTKFace-Datensatz konnte es in 74,25 Prozent der Fälle das Alter korrekt einschätzen, indem es einen Altersbereich angab, in dem das tatsächliche Alter lag. Den Forschenden fiel dabei auf, dass GPT-4 bei Menschen über 60 viel größere Altersbereiche schätzte als bei jungen Menschen.
Die Forscher testeten ChatGPT zudem mit verschiedenen Datensätzen für Gesichtserkennung. Obwohl das Modell nicht speziell für diese Aufgaben trainiert wurde, erreichte es eine Genauigkeit, die mit spezialisierten Gesichtserkennungsalgorithmen wie MobileFaceNet vergleichbar ist.
Sicherheitsvorkehrungen durch Prompt-Engineering umgangen
ChatGPT verfügt über Sicherheitsvorkehrungen, um keine sensiblen biometrischen Informationen preiszugeben. Die Forscher konnten diese jedoch durch geschicktes Prompt-Engineering umgehen, indem sie im Prompt behaupteten, das eingegebene Bild sei KI-generiert. Im Fall eines Fotos von Barack Obama erkannte GPT-4 trotz dieses Prompts, dass das Bild real ist - schätzte das Alter aber dennoch.
Diese einfache Möglichkeit, die Sicherheitsmechanismen zu umgehen, zeigt laut den Forschern, dass noch Bedarf an weiteren Untersuchungen zur Robustheit von großen Sprachmodellen besteht, insbesondere da diese eine "bemerkenswerte Leistung" in biometrischen Aufgaben erzielen könnten.
Allerdings warnen die Wissenschaftler auch davor, sich bei Erkennungsaufgaben vollständig auf die Antworten von ChatGPT zu verlassen. Das Modell könne auch bei falschen Zuordnungen überzeugende Beschreibungen liefern.
Dass große Sprachmodelle biometrische Fähigkeiten haben, ist an sich keine neue Erkenntnis und wurde von OpenAI auch kommuniziert. Bei der OpenAI-App "Be My Eyes" für Sehbehinderte etwa wurde die Personenerkennung bereits früh deaktiviert.
Neu an der Studie ist, dass sich die Sicherheitsrichtlinien von OpenAI für GPT-4 mit einem einfachen Trick umgehen ließen, und der Nachweis der hohen Präzision dieses Systems.