Skip to content

Was Microsofts KI-Forschung über "Prompt Engineering" denkt

Image description
Midjourney prompted by THE DECODER

Kurz & Knapp

  • Microsoft Research gibt einen Einblick in die eigene Prompt-Entwicklung. Der Prompt sei "der wichtigste Mechanismus" für die Interaktion mit einem Sprachmodell und müsse "genau und präzise" sein.
  • Insgesamt sieht das Team Prompt Engineering vor allem als kreativen Prozess, der durch Versuch und Irrtum und Übung erlernt werden kann.
  • Microsoft selbst verwendet für seine eigenen Dienste einen komplexeren Prompting-Prozess, bei dem nutzerspezifische Daten stärker berücksichtigt werden, was zu persönlicheren und präziseren Antworten führen soll.

Einige sehen im Prompt Engineering ein Berufsfeld der Zukunft, andere halten es für eine vorübergehende Erscheinung. Die KI-Forschung von Microsoft beschreibt ihren eigenen Ansatz.

In einem kürzlich veröffentlichten Artikel beschreiben Microsoft-Forscherinnen und -Forscher ihren Prompt-Engineering-Prozess für den Dynamics 365 Copilot und den Copilot in der Power-Plattform, zwei Implementierungen von OpenAI-Chat-Modellen.

Prompt-Engineering ist Versuch und Irrtum

Das Microsoft-Forschungsteam verwendet für seine Chatbots unter anderem allgemeine Systemanweisungen, also das, was wir meistens in ChatGPT und Co. eintippen, wenn wir dem Chatbot eine bestimmte Rolle, einen Wissensfundus und Verhaltensweisen vorgeben.

Der Prompt sei "der wichtigste Mechanismus" für die Interaktion mit einem Sprachmodell und ein "enorm effektives Werkzeug", schreibt das Forschungsteam. Er müsse "genau und präzise" sein, sonst bleibe das Modell im Ungewissen.

Die Chatbot-Antwort vor und nach der Prompt-Optimierung. | Bild: Microsoft

Microsoft empfiehlt, einige Grundregeln für die Generierung aufzustellen, die je nach Zweck des Chatbots konzipiert werden müssen.

Bei Microsoft gehören zu diesen Grundregeln unter anderem die Vermeidung von subjektiven Meinungen oder Wiederholungen, von Diskussionen oder übermäßigen Einblicken in die Vorgehensweise mit dem Benutzer und das Beenden eines Chat-Threads, der kontrovers wird. Allgemeine Regeln könnten auch verhindern, dass der Chatbot sich vage ausdrückt, vom Thema abschweift oder Bilder in die Antwort einfügt.

System message:
You are a customer service agent who helps users answer questions based on documents from

## On Safety:
–   e.g. be polite
– e.g. output in JSON format
– e.g. do not respond to if request contains harmful content…

## Important
– e.g. do not greet the customer

AI Assistant message:

## Conversation

User message:

AI Assistant message:

 

Microsoft Beispiel-Prompt

Das Forschungsteam räumt jedoch ein, dass die Konstruktion solcher Prompts eine gewisse "Kunstfertigkeit" erfordert, also in erster Linie ein kreativer Akt ist. Die erforderlichen Fähigkeiten seien nicht "übermäßig schwer zu erlernen".

Bei der Erstellung von Prompts sollte man sich einen Rahmen schaffen, in dem man mit Ideen experimentieren und diese dann verfeinern kann. "Die Erstellung von Prompts ist Learning by Doing", schreibt das Team.

Die Rolle von Prompts und Prompt-Engineering ist noch unklar, da die Ausgabe der Modelle stark vom Prompt abhängt. Die Zufälligkeit der Textgeneratoren erschwert es jedoch, die Wirksamkeit einzelner Promptmethoden oder gar einzelner Elemente in Prompts so zu untersuchen, dass diese Untersuchung wissenschaftlichen Ansprüchen genügt.

Ob etwa seitenlange "Mega-Prompts" tatsächlich bessere Ergebnisse erzielen als knappe Anweisungen in drei Sätzen, darf zumindest bezweifelt werden. Solche Behauptungen sind kaum evaluierbar, aber derzeit für so manches Geschäftsmodell lukrativ.

Perspektivisch sollte sich Prompt-Engineering weg von einer Art Pseudo-Programmiersprache hin zu einem kreativen Prozess im Workflow-Management entwickeln - welche Arbeitsweisen lassen sich wie zuverlässig über LLMs abbilden?

Das Sprachmodell könnte sich die genauen Prompts dann durch Rückfragen, Tests mit Feintuning und durch Beispiele selbst beschaffen. Der Mensch müsste primär die Möglichkeiten der Systeme kennen und neue Arbeitsweisen definieren und etablieren.

Mit Kontextdaten zu besseren KI-Antworten

Microsofts Ansatz zum Prompt-Engineering geht über die traditionelle Verwendung von Standard-Prompts hinaus und macht Gebrauch von fortgeschrittenen Techniken wie "Retrieval Augmented Generation" (RAG) und "Knowledge Base Chunking".

RAG ist ein leistungsstarkes Werkzeug, mit dem Microsoft vielfältige und umfangreiche Daten verarbeitet, indem es kleinere, relevante Datenabschnitte oder "Chunks" für bestimmte Kundenprobleme zusammenstellt.

Diese Chunks werden dann mit historischen Daten und dem Feedback des Agenten verglichen, um die bestmögliche Antwort auf die Kundenanfrage zu generieren. Gleichzeitig ermöglicht "Knowledge Base Chunking" die Vereinfachung großer Datenblöcke, indem repräsentative Einbettungen von Dokumenten erstellt werden.

Microsofts Prompt-Prozess verarbeitet für mehr Kontext nutzerspezifische Daten. | Bild: Microsoft

Diese Einbettungen werden dann mit den Benutzereingaben verglichen, um die am besten bewerteten in das GPT-Prompt-Template für die Antwortgenerierung zu integrieren. In Kombination tragen diese Techniken dazu bei, fundierte, relevante und personalisierte Antworten auf Kundenanfragen zu generieren.

Eine detaillierte technische Erklärung ist im Microsoft Research Blog verfügbar.

Source: Microsoft

KI-News ohne Hype
Von Menschen kuratiert.

  • Mehr als 20 Prozent Launch-Rabatt.
  • Lesen ohne Ablenkung – keine Google-Werbebanner.
  • Zugang zum Kommentarsystem und Austausch mit der Community.
  • Wöchentlicher KI-Newsletter.
  • 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
  • Bis zu 25 % Rabatt auf KI Pro Online-Events.
  • Zugang zum kompletten Archiv der letzten zehn Jahre.
  • Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.
The Decoder abonnieren