Inhalt
newsletter Newsletter

In sozialen und redaktionellen Medien kursiert derzeit die These, die Entwicklung der Künstlichen Intelligenz stagniere – ein vermeintliches Indiz: GPT-5 könne keine korrekte Deutschlandkarte zeichnen. Diese Einschätzung offenbart jedoch ein grundlegendes Missverständnis der Technologie.

Anzeige

Als Beleg wird häufig eine Grafik herangezogen, die meist in ähnlicher Form gezeigt wird: eine Deutschlandkarte, deren Umrisse zwar einigermaßen korrekt sind, die jedoch zahlreiche Fehler bei der Beschriftung der Bundesländer aufweist.

"Brandesanhalt": Das in ChatGPT integrierte Bildmodell gibt solche fehlerhaften Deutschlandkarten aus. | Bild: ChatGPT-Bildmodell prompted by THE DECODER

Diese Kritik ergibt nur dann ansatzweise Sinn, wenn mit "ChatGPT-5" tatsächlich ausschließlich der sogenannte Router gemeint ist – also die Benutzeroberfläche, die Anfragen an verschiedene Modelle weiterleitet.

Im Fall der Deutschlandkarte wird die Anfrage nämlich nicht an GPT-5 selbst übergeben, sondern an das Bildmodell von ChatGPT, das vermutlich auf dem multimodalen GPT-4o basiert. GPT-5 – das eigentliche Sprachmodell – kann keine Bilder generieren.

Anzeige
Anzeige

Das ChatGPT-Bildmodell ist nicht darauf ausgelegt, geografisch exakte Karten zu zeichnen oder präzise Beschriftungen zu erstellen. Sein Ziel ist es, visuell ansprechende Bilder zu erzeugen. Eine fehlerfreie Deutschlandkarte davon zu erwarten, ist etwa so sinnvoll, wie Picasso zu bitten, eine maßstabsgetreue Zeichnung von Venedig aus dem Gedächtnis – und mit einem dicken Pinsel – anzufertigen.

Hinzu kommt: Die Bildgenerierungsfähigkeiten wurden mit GPT-5 nicht überarbeitet. Das "Problem", sofern man es überhaupt so nennen möchte, besteht also bereits seit der Einführung der Bildgenerierung in ChatGPT. Die Veröffentlichung von GPT-5 ist deshalb ein eher willkürlicher Anlass, das Thema aufzugreifen – oder es mangelt schlicht am technischen Verständnis.

GPT-5 kann Deutschland

Ein berechtigter Einwand wäre: Warum leitet "ChatGPT-5" (also der Router) die Anfrage überhaupt an das Bildmodell weiter, anstatt beispielsweise passenden Code für eine Karte zu generieren? In vielen grundlegenden Kritiken bleibt dieser zentrale Aspekt jedoch unerwähnt.

Stattdessen wird die fehlerhafte Deutschlandkarte gerne als Beweis dafür herangezogen, dass KI "immer noch dumm" sei – was auch immer das bedeuten mag – oder sie nicht mehr dazulerne. Zwar gibt es wissenschaftliche Hinweise darauf, dass das LLM-Paradigma an Grenzen stößt, ebenso aber auch weiterhin signifikante Gegenbeispiele und Fortschritte.

Die fehlerhafte Deutschlandkarte taugt jedoch weder als Argument für einen Stillstand der KI-Entwicklung noch als Fundamentalkritik an GPT-5, dem Modell. Denn fragt man GPT-5 – das Modell, nicht den Router – gezielt nach Code für eine Deutschlandkarte, liefert es korrekte und funktionale Ergebnisse – inklusive Interaktivität. GPT-5 kann also sehr wohl "Deutschland".

Empfehlung
Die Karte stimmt, und alle Bundesländer sind mit einem Maus-Über-Effekt korrekt benannt. | Bild: GPT-5 prompted by THE DECODER

Wer sich fundiert zum Thema KI weiterbilden möchte, dem sei unser KI-Themendienst heise KI Pro empfohlen.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!