Inhalt
summary Zusammenfassung

Einige sehen im Prompt Engineering ein Berufsfeld der Zukunft, andere halten es für eine vorübergehende Erscheinung. Die KI-Forschung von Microsoft beschreibt ihren eigenen Ansatz.

In einem kürzlich veröffentlichten Artikel beschreiben Microsoft-Forscherinnen und -Forscher ihren Prompt-Engineering-Prozess für den Dynamics 365 Copilot und den Copilot in der Power-Plattform, zwei Implementierungen von OpenAI-Chat-Modellen.

Prompt-Engineering ist Versuch und Irrtum

Das Microsoft-Forschungsteam verwendet für seine Chatbots unter anderem allgemeine Systemanweisungen, also das, was wir meistens in ChatGPT und Co. eintippen, wenn wir dem Chatbot eine bestimmte Rolle, einen Wissensfundus und Verhaltensweisen vorgeben.

Der Prompt sei "der wichtigste Mechanismus" für die Interaktion mit einem Sprachmodell und ein "enorm effektives Werkzeug", schreibt das Forschungsteam. Er müsse "genau und präzise" sein, sonst bleibe das Modell im Ungewissen.

Anzeige
Anzeige
Die Chatbot-Antwort vor und nach der Prompt-Optimierung. | Bild: Microsoft

Microsoft empfiehlt, einige Grundregeln für die Generierung aufzustellen, die je nach Zweck des Chatbots konzipiert werden müssen.

Bei Microsoft gehören zu diesen Grundregeln unter anderem die Vermeidung von subjektiven Meinungen oder Wiederholungen, von Diskussionen oder übermäßigen Einblicken in die Vorgehensweise mit dem Benutzer und das Beenden eines Chat-Threads, der kontrovers wird. Allgemeine Regeln könnten auch verhindern, dass der Chatbot sich vage ausdrückt, vom Thema abschweift oder Bilder in die Antwort einfügt.

System message:
You are a customer service agent who helps users answer questions based on documents from

## On Safety:
–   e.g. be polite
– e.g. output in JSON format
– e.g. do not respond to if request contains harmful content…

## Important
– e.g. do not greet the customer

AI Assistant message:

## Conversation

User message:

AI Assistant message:

 

Microsoft Beispiel-Prompt

Das Forschungsteam räumt jedoch ein, dass die Konstruktion solcher Prompts eine gewisse "Kunstfertigkeit" erfordert, also in erster Linie ein kreativer Akt ist. Die erforderlichen Fähigkeiten seien nicht "übermäßig schwer zu erlernen".

Bei der Erstellung von Prompts sollte man sich einen Rahmen schaffen, in dem man mit Ideen experimentieren und diese dann verfeinern kann. "Die Erstellung von Prompts ist Learning by Doing", schreibt das Team.

Die Rolle von Prompts und Prompt-Engineering ist noch unklar, da die Ausgabe der Modelle stark vom Prompt abhängt. Die Zufälligkeit der Textgeneratoren erschwert es jedoch, die Wirksamkeit einzelner Promptmethoden oder gar einzelner Elemente in Prompts so zu untersuchen, dass diese Untersuchung wissenschaftlichen Ansprüchen genügt.

Empfehlung

Ob etwa seitenlange "Mega-Prompts" tatsächlich bessere Ergebnisse erzielen als knappe Anweisungen in drei Sätzen, darf zumindest bezweifelt werden. Solche Behauptungen sind kaum evaluierbar, aber derzeit für so manches Geschäftsmodell lukrativ.

Perspektivisch sollte sich Prompt-Engineering weg von einer Art Pseudo-Programmiersprache hin zu einem kreativen Prozess im Workflow-Management entwickeln - welche Arbeitsweisen lassen sich wie zuverlässig über LLMs abbilden?

Das Sprachmodell könnte sich die genauen Prompts dann durch Rückfragen, Tests mit Feintuning und durch Beispiele selbst beschaffen. Der Mensch müsste primär die Möglichkeiten der Systeme kennen und neue Arbeitsweisen definieren und etablieren.

Mit Kontextdaten zu besseren KI-Antworten

Microsofts Ansatz zum Prompt-Engineering geht über die traditionelle Verwendung von Standard-Prompts hinaus und macht Gebrauch von fortgeschrittenen Techniken wie "Retrieval Augmented Generation" (RAG) und "Knowledge Base Chunking".

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

RAG ist ein leistungsstarkes Werkzeug, mit dem Microsoft vielfältige und umfangreiche Daten verarbeitet, indem es kleinere, relevante Datenabschnitte oder "Chunks" für bestimmte Kundenprobleme zusammenstellt.

Diese Chunks werden dann mit historischen Daten und dem Feedback des Agenten verglichen, um die bestmögliche Antwort auf die Kundenanfrage zu generieren. Gleichzeitig ermöglicht "Knowledge Base Chunking" die Vereinfachung großer Datenblöcke, indem repräsentative Einbettungen von Dokumenten erstellt werden.

Microsofts Prompt-Prozess verarbeitet für mehr Kontext nutzerspezifische Daten. | Bild: Microsoft

Diese Einbettungen werden dann mit den Benutzereingaben verglichen, um die am besten bewerteten in das GPT-Prompt-Template für die Antwortgenerierung zu integrieren. In Kombination tragen diese Techniken dazu bei, fundierte, relevante und personalisierte Antworten auf Kundenanfragen zu generieren.

Eine detaillierte technische Erklärung ist im Microsoft Research Blog verfügbar.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Microsoft Research gibt einen Einblick in die eigene Prompt-Entwicklung. Der Prompt sei "der wichtigste Mechanismus" für die Interaktion mit einem Sprachmodell und müsse "genau und präzise" sein.
  • Insgesamt sieht das Team Prompt Engineering vor allem als kreativen Prozess, der durch Versuch und Irrtum und Übung erlernt werden kann.
  • Microsoft selbst verwendet für seine eigenen Dienste einen komplexeren Prompting-Prozess, bei dem nutzerspezifische Daten stärker berücksichtigt werden, was zu persönlicheren und präziseren Antworten führen soll.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!