KI in der Praxis

Gute Nachrichten für Prompt-Ingenieure: Prompts sind wohl aufwärtskompatibel

Matthias Bastian

Google (Screenshot)

Wer aufwendige Prompts und KI-Workflows für GPT-4 gebastelt hat, möchte diese nicht mit einem Modellwechsel aufgeben. Die Prompts zwischen GPT-4 und Googles Gemini Ultra sollen kompatibel sein.

Das berichtet Ethan Mollick, Professor an der Wharton School, der seit über einem Monat Zugang zu Gemini Ultra hat. Mollick war unter anderem an einer mehrmonatigen Studie über Produktivitätssteigerungen durch GPT-4 im Beratungsgeschäft beteiligt.

Die Kompatibilität der beiden Modelle sei "bemerkenswert". Von ihm getestete komplexe Prompts, die auf GPT-4 funktionierten, würden auch von Gemini Ultra ausgeführt.

"Fortgeschrittene LLMs können einige grundlegende Ähnlichkeiten in Prompts und Antworten aufweisen, die es den Menschen leicht machen, jederzeit von einem älteren Modell auf die fortschrittlichere KI umzusteigen", schreibt Mollick.

Wer eine Prompt-Bibliothek mit darauf basierenden Workflows aufgebaut hat, wird sich über diese Nachricht freuen. Denn unsere eigenen Content-Tests mit KI zeigen, dass der umgekehrte Weg nicht funktioniert: Ein komplexer GPT-4-Prompt in Llama 2 liefert etwa deutlich schlechtere Ergebnisse.

Es ist gut zu wissen, dass der umgekehrte Weg möglich ist und etablierte KI-Prozesse damit aufgerüstet werden können, ohne dass alle Prompts geändert werden müssen.

Gemini Ultra ist auf GPT-4-Niveau

Allerdings sei Ultra manchmal zu hilfsbereit, sodass Prompts im Bildungsbereich, bei denen Studierende mit der KI interagieren müssen, um ein Konzept zu verstehen, angepasst werden müssten. Ein entsprechendes Papier werde folgen, schreibt Mollick.

Ansonsten bescheinigt Mollick Gemini Ultra, definitiv auf Augenhöhe mit GPT-4 zu sein, mit unterschiedlichen Stärken und Schwächen.

Gemini sei offener für eine "dunklere" Schreibweise, gebe bessere Erklärungen, integriere Bilder und die Suche besser.

GPT-4 sei besser im Coding, bestehe anspruchsvolle Sprachaufgaben wie den "Apple-Test" (siehe Screenshot) und schreibe bessere Sestinas.

Gemini Ultra versagt im Apfel-Test, GPT-4 besteht ihn. | Bild: Ethan Mollick

Gemini zeige, dass auch andere Firmen als OpenAI Modelle der Klasse GPT-4 bauen könnten, sagte Mollick. Allerdings seien beide Modelle auch inkonsistent und "seltsam" und würden mehr halluzinieren, als einem lieb sei.

Quellen: