Skip to content

KI-Workflows - Von Grundlagen bis zu intelligenten Agenten

Image description
KI PRO

Einleitung: Die Evolution der KI-Nutzung – vom Chat zum intelligenten Agenten

Mittlerweile können wir uns durchgehend im Arbeitsalltag von KI unterstützen lassen – sei es durch ausgefeilte Textentwürfe, Analysen oder Empfehlungen.  Möchten Sie deutliche Effizienzvorteile mit KI realisieren, müssen Sie jedoch über informelles Chatten hinausgehen und KI strukturiert und dauerhaft in Ihren Prozessen verankern, und zwar idealerweise dort, wo die Wertschöpfung am höchsten ist. Genau dabei soll Sie dieser Deep Dive unterstützen.

Wir sehen in viele Organisationen eine Evolution: Der Ausgangspunkt ist häufig individuelles Chatten einzelner Mitarbeitenden als mehr oder weniger systematische Unterstützung von einzelnen Arbeitsschritten. Dieses "Grundrauschen" ist sinnvoll, da es alle Mitarbeitenden individuell die Möglichkeiten und Grenzen aktueller generativer Sprachmodelle erfahren lässt.

Der nächste Schritt über das einfache Chatten hinaus sind KI-Tools wie heise I/O. Sie bieten Prompt-Vorlagen für Teams, um wiederkehrende Aufgaben auch ohne Prompt-Erfahrung effizient zu lösen.  Zusätzliche Funktionen wie die Auswahl verschiedener KI-Modelle und eine strukturierte Projektübersicht mit kompakten Zusammenfassungen ermöglichen Flexibilität bei der Modellauswahl, verhindern so Vendor-Lock-In und erhöhen den Bedienkomfort. Workflows lassen sich damit abbilden und durch KI deutlich beschleunigen.

Zusätzliche Tools wie integrierte Websuche und Wissensdatenbanken, die über "Retrieval Augmented Generation" (RAG) eingebunden sind, erhöhen die inhaltliche Qualität. In all den bisher genannten Formen der Mensch-KI-Zusammenarbeit liefert der Mensch die relevanten Informationen; er steuert die KI über Prompts und überprüft die Ergebnisse.

Anzeige
DEC_D_Incontent-1

Mit den nächsten Entwicklungsstufen – Automatisierung und intelligente KI-Agenten – tritt der Mensch weiter in den Hintergrund. Ziel ist es, Zeit zu sparen und die Qualität auch ohne Fach- oder KI-Wissen zu steigern. Solche Agenten arbeiten weitgehend autonom: Der Nutzer definiert lediglich das Ziel, die KI zerlegt es in Einzelschritte, wählt passende Modelle, greift auf Datenquellen zu und interagiert bei Bedarf mit externen Diensten – ohne ständiges Eingreifen.

Diese KI-Agenten können eigenständig Marktanalysen erstellen, Berichte generieren, versenden und dynamisch an Veränderungen anpassen. Der Einsatz autonomer KI-Agenten ist mit Aufwand und Risiken verbunden – insbesondere ohne strukturiertes Vorgehen. Lesen Sie dazu im Detail unseren Deep Dive "KI-Agenten".

Erwarten Sie nicht, dass KI sofort und ohne Vorarbeit effizientere Abläufe ermöglicht. Entscheidend ist, gezielt jene Prozesse zu identifizieren, bei denen sich der Aufwand tatsächlich lohnt.

Am Ende dieses Deep Dives wissen Sie, welche Methoden und Technologien hinter modernen KI-Workflows stecken, wie Sie den Aufwand realistisch einschätzen und welche Voraussetzungen Sie schaffen müssen, um KI-gestützte Prozesse nahtlos in Ihre Unternehmenslandschaft zu integrieren.

Anzeige
DEC_D_Incontent-2

KI-Workflow-Integration: Vom manuellen Statusbericht zum intelligenten Agenten

Um den Praxiseinsatz von KI greifbar zu machen, zeigen wir exemplarisch eine typische Alltagsaufgabe eines fiktiven Projektmanagers. Diese führen wir schrittweise durch die verschiedenen Evolutionsstufen der KI-Integration – von manueller Ausführung hin zu intelligenten Agenten. So erkennen Sie konkret, wo Chancen liegen, welche Voraussetzungen nötig sind und welche Risiken oder Hürden bestehen. Die Erkenntnisse lassen sich leicht auf andere Alltagstätigkeiten übertragen.

Unser Ausgangsszenario

Ein Dienstagmorgen im April 2024:  Thomas Müller, Senior Project Manager (PM) bei einem großen deutschen Automobilhersteller, erhält eine dringende E-Mail vom Vorstand: Ein einseitiger Statusbericht zum Elektro-SUV-Projekt EQX-Alpha wird bis Freitag benötigt. Gefragt sind der aktuelle Projektstand, die Wettbewerbssituation in China und Deutschland sowie eine Einschätzung für die kommenden sechs Monate.

Illustration Projektmanager
Projektmanager Thomas Müller

Eine solche Situation könnte Ihnen bekannt vorkommen: kurzfristige Anfragen für präzise, aktuelle Berichte, die verschiedenste Datenquellen zusammenführen müssen. Was nun folgt, ist beispielhaft die Geschichte einer schrittweisen KI-Transformation – von der traditionellen Arbeitsweise bis zur KI-gestützten Vollautomatisierung.

Set-Up 1: Der klassische Weg – Handarbeit wie seit Jahrzehnten

Thomas macht es so, wie er es seit seinem Berufseinstieg gelernt hat: Er öffnet die relevanten Excel-Dateien, durchforstet E-Mails und SharePoint-Ordner, ruft Kollegen an und beginnt, Informationen zusammenzutragen. Dieser oder ähnliche Prozesse sind jedem vertraut, der schon einmal einen Management-Report erstellt hat.

Am ersten Tag sammelt Thomas die Rohdaten. Er extrahiert Projektstatus-Informationen aus verschiedenen Excel-Tabellen, führt Telefonate mit Teamleitern, durchsucht das Bloomberg-Terminal nach aktuellen Marktzahlen zu den chinesischen Anbietern BYD und Xiaomi und wühlt sich durch Handelsblatt-Archive für Informationen über BMW und Audi. Parallel macht er sich handschriftliche Notizen und versucht, den Überblick zu behalten.

Der zweite Tag gehört der Verdichtung und dem Schreiben. Thomas validiert jede wichtige Zahl mit einer zweiten Quelle – die bewährte "Rule of Two". Er öffnet die Word-Vorlage für Executive Summaries und beginnt zu schreiben. Der erste Entwurf hat 847 Wörter – viel zu lang. Also kürzt er, streicht Adjektive, eliminiert Nebensätze. Eine Kollegin aus dem Controlling prüft die Zahlen, ein Strategie-Kollege prüft die Aussagen. Nach mehreren Iterationen steht der Bericht.

Der Ablauf als schematisches Diagramm:

Prozesschart manuelle Büroarbeit
Prozesschart manuelle Büroarbeit

Zeitaufwand: etwa eineinhalb bis zwei volle Arbeitstage, je nach Komplexität und Datenverfügbarkeit.

Die versteckten Probleme: Thomas ist der Einzige, der genau weiß, wo welche Daten liegen. Bei Krankheit oder Urlaub entsteht zusätzlicher Aufwand für die Urlaubsvertretung, sich in diesem System zurechtzufinden. Copy-Paste-Fehler schleichen sich ein, Daten sind oft schon beim Schreiben veraltet. Und: Zahlreiche Projektmanager im Unternehmen machen das Gleiche – aber jeder auf seine Art, mit unterschiedlichen Quellen und Methoden.

Was trotzdem zuverlässig funktioniert: die menschliche Intuition. Thomas merkt schnell, wenn Zahlen "komisch" aussehen. Er versteht die politischen Untertöne, kann spontan auf Themenwechsel reagieren. Seine 15 Jahre Erfahrung schaffen Vertrauen beim Vorstand.

Set-Up 2: Der erste KI-Kontakt – ein Chatbot als Ghostwriter

Nach dem letzten Last-Minute-Report zieht Thomas Konsequenzen – dieses Mal will er auf KI setzen. Die IT hat inzwischen einen Enterprise-Account für ChatGPT freigegeben. Die Hoffnung: trotz engen Zeitplans einen hochwertigen Bericht schneller erstellen zu können.

Thomas entwickelt eine systematische Vorgehensweise. Er extrahiert die relevanten Daten aus Excel, formatiert sie als Klartext und erstellt einen detaillierten Prompt. Nach mehreren Anläufen steht eine funktionierende Vorlage: Er definiert die Rolle von ChatGPT, liefert Projekthintergrund, fügt die Rohdaten ein und beschreibt präzise den gewünschten Output.

Damit ist Thomas vielen Chatbot-Nutzern einen Schritt voraus – statt kurzer Anweisungen mit Daten, die im Dialog mühsam nachgeschärft werden müssen, setzt er auf strukturierte Vorbereitung für bessere Ergebnisse von Anfang an.

Eine aktuelle Studie von Microsoft und Salesforce zeigte kürzlich, wie entscheidend eine solche strukturierte Herangehensweise ist: KI-Modelle verlieren in mehrstufigen Gesprächen deutlich an Zuverlässigkeit, wenn Informationen erst schrittweise geliefert werden. Die Erfolgsquote sank in diesen Fällen im Durchschnitt um 39 Prozent. Thomas’ Methode – alle relevanten Informationen von Beginn an klar zu liefern – wirkt dem gezielt entgegen und sorgt für konsistentere Ergebnisse.

Dennoch ist Thomas ernüchtert. ChatGPT liefert zwar in Sekunden einen sauber formatierten Text – doch eine Zahl ist frei erfunden, und der Launch-Termin wurde eigenmächtig verschoben. Ursache: Der Chatbot interpretiert "letztes Jahr" falsch, weil sein Trainingsstand nicht das aktuelle Jahr umfasst.

Nach mehreren Iterationen und zusätzlichen Instruktionen wie "Verwende NUR die bereitgestellten Zahlen!", wird das Ergebnis besser. Doch die Zeitersparnis ist geringer als erhofft: Die Datensammlung dauert noch genauso lange, und die Validierung des KI-Outputs sogar länger als zuvor, weil Thomas jede Aussage sorgfältig (und mit viel Misstrauen) überprüft.

Der Ablauf als schematisches Diagramm:

Prozesschart Chat-Workflow
Prozesschart Chat-Workflow

Zeitersparnis: etwa 20–30 Prozent – hauptsächlich beim Formulieren, nicht bei der Datenarbeit.

Organisationsaufwand: Minimal. Ein ChatGPT-Account, ein Training für die Mitarbeiter, fertig. Doch genau hier liegt das Problem: Skaliert man Thomas Vorgehen auf die Organisation, entsteht schnell ein Wildwuchs – selbst, wenn Handreichungen zu Prompt-Standard herausgegeben werden. Nach drei Monaten hat das Team 47 verschiedene Prompt-Varianten, niemand nutzt den angeblich offiziellen Standard.

Die Lernkurve: In der ersten Woche herrscht Begeisterung bei Thomas und in der Organisation ("Das ist die Zukunft!"), in Woche zwei Frustration ("Die Hälfte ist falsch!"), in Woche drei Resignation ("Mehr Arbeit als vorher"). Nach acht Wochen pendelt sich ein pragmatischer Umgang ein: 30 Prozent Zeitersparnis sind realistisch, wenn man ChatGPT richtig einsetzt.

Change-Management Herausforderungen: Die jüngeren Mitarbeiter experimentieren begeistert, ältere Kollegen entwickeln "KI-Angst". Die Qualität schwankt stark zwischen verschiedenen Nutzern. Manche verlassen sich blind auf die KI, andere nutzen sie gar nicht.

Set-Up 3: Der modulare Prompt-Workflow – aus Chaos wird System

Maria Schmidt, Head of Digital Transformation, ergreift die Initiative. Der ChatGPT-Wildwuchs muss aufhören. Was das Unternehmen benötigt, ist ein systematischer Ansatz: spezialisierte, wiederverwendbare Prompts statt individuellem Wildwuchs. Nach einer kurzen Marktanalyse entscheidet sich das Team für ein Tool mit integriertem Prompt-Management, bei dem man KI-Prozesse in Teams teilen und einfach mit dem optimal für diesen Prozess geeigneten KI-Modell verknüpfen kann. Wir verwenden im folgenden heise I/O, aber mit ähnlichen Tools können auch ähnliche Ergebnisse erzielt werden.
 
Illustration Head of Digital Transformation
Head of Digital Transformation Maria Schmidt

Das Konzept: Statt alle Anforderungen in einen einzigen Prompt zu pressen, zerlegt das Team den Prozess in logische Einzelschritte. In heise I/O entstehen dafür modulare Prompt-Templates, die zentral in der gemeinsamen Bibliothek gepflegt werden – etwa für einen Projektstatus-Report, Wettbewerbsanalysen oder die inhaltliche Synthese. Die Prompts arbeiten mit Variablen wie {{Projektname}}, {{Zielregionen}} oder {{Wettbewerber}}. So lässt sich derselbe Baukasten flexibel für unterschiedlichste Berichte wiederverwenden.

Ein konkretes Beispiel: Das Prompt-Template "Regionale Wettbewerbsanalyse" fragt nicht explizit nach "China", sondern verwendet die Variable {{Region}}. Statt fest "BYD und Xiaomi" zu analysieren, greift es auf {{relevante_Wettbewerber_in_Region}} zurück. Muss nächste Woche ein Bericht zum US-Markt erstellt werden, trägt der Nutzer einfach neue Werte in die vorgesehenen Felder ein – die Prompt-Struktur bleibt unverändert. heise I/O speichert solche Templates zentral in der Team-Bibliothek – für konsistente, wiederverwendbare Workflows.

In Workshops definiert das Team gemeinsam diese Workflows – jeder Schritt wird als eigenständiger, präzise formulierter Prompt in der Bibliothek hinterlegt. Das Ziel: Jeder Prompt soll beim ersten Ausführen ein möglichst treffsicheres Ergebnis liefern. Nachbessern im Chat – etwa durch zusätzliche Rückfragen oder Korrekturen – ist zwar möglich, wird aber bewusst als Signal für einen bislang nicht optimalen Prompt verstanden. Deshalb wird jeder Prompt so lange iteriert, bis er ohne Nachbesserung zuverlässig das gewünschte Ergebnis liefert.

Das Team testet verschiedene Formulierungen dabei parallel mit unterschiedlichen KI-Modellen und wählt für jeden Prompt das beste Modell aus. Für kostensensitive Standard-Aufgaben können günstigere Modelle genutzt werden, während kritische Analysen mit den leistungsfähigsten Modellen laufen.

Am Ende steht ein stabiler Workflow: Ein Projektmanager startet mit dem ersten Prompt-Template aus der Bibliothek, erhält ein präzises Ergebnis, nutzt diesen Output direkt als Input für den nächsten Prompt. Kein Hin und Her, keine Nachfragen – die Prompts sind so ausgereift, dass sie verlässlich funktionieren.

Qualitäts-Gates werden ebenfalls als eigene Prompt-Templates in der Bibliothek hinterlegt. Ein "Fakt-Checker"-Prompt etwa prüft jede Zahl im Output. Wenn sie nicht in den Quelldaten vorhanden ist, schlägt das System Alarm.

Der Ablauf als schematisches Diagramm:

Prozesschart Prompt-Workflow
Prozesschart Prompt-Workflow

Der Vorteil: Jeder Projektmanager kann diese Prompt-Ketten nutzen – direkt über die heise I/O-Oberfläche. Egal, ob es um Batterietechnologie in Japan geht, um Software-Entwicklung in Kalifornien oder um Produktionsstandorte in Osteuropa – jeder wählt einfach den passenden Prompt aus der Bibliothek, füllt die Variablen aus und arbeitet sich Schritt für Schritt durch den Prozess. Das Team muss das Rad nicht jedes Mal neu erfinden.

Implementierungsdauer: Je nach Organisationsgröße und -komplexität dauert das von einer Woche bis zu mehreren Monaten vom Konzept und operativem Layout bis zum unternehmensweiten Rollout.

Benötigte Expertise:

  • Mitarbeiter mit Verständnis für strukturiertes Arbeiten und Prozessdenken
  • Fachexperten, die wissen, was einen guten Bericht ausmacht
  • KI-SpezialistInnen, die wissen, wie man gute Prompts schreibt und das Wissen auch vermitteln können und als KI-Ambassadors wirken, die die Kolleginnen bei Bedarf unterstützen
  • Change Manager für die schrittweise Einführung

Widerstände kommen aus verschiedenen Richtungen: Senior Project Manager fürchten den Kontrollverlust ("Mein Projekt ist einzigartig!"). Die IT sieht Risiken in einer weiteren Cloud-Lösung. Die Antwort vom KI-Team: heise I/O arbeitet DSGVO-konform auf deutschen Servern, KI-Modelle sind über EU-Server verfügbar und die eingegebenen Daten werden nicht für das KI-Training verwendet. Das räumt viele Datenschutzbedenken aus.

Der Prozess: Alle Stakeholder werden früh eingebunden und können selbst mit der Plattform experimentieren. Entscheidend ist zu zeigen, dass die Prompts flexibel genug sind, um individuelle Anforderungen abzubilden. Der Rollout erfolgt stufenweise: Zunächst testen fünf "KI-Ambassadors" aus verschiedenen Projekten die universelle Einsetzbarkeit direkt in heise I/O. Anschließend folgen 15 Power-User aus unterschiedlichen Fachbereichen. Ein zentraler Erfolgsindikator ist die Nachbearbeitungsquote – sie sinkt von anfangs 40 Prozent auf unter 5 Prozent. Die Prompts werden besser, die Ergebnisse verlässlicher.

Das Ergebnis: Nach sechs Monaten zeigt sich: Die reale Zeitersparnis der mit KI-unterstützten Aufgaben liegt im Schnitt bei 70 bis 80 Prozent. Noch wichtiger ist jedoch, dass nun alle nach einem gemeinsamen Standard arbeiten – bei voller Flexibilität für projektspezifische Anpassungen. Weitere Zeitersparnis kann per Tracking des KI-Einsatzes und der Prüfung, welche Teams in welcher Häufigkeit mit KI arbeiten, abgeleitet werden.

Erfolgsfaktoren:

  • Templates von Anfang an generisch denken (typische Aufgaben prompten, keine aktuellen Themen)
  • Prompts so lange verfeinern, bis sie ohne Nacharbeit funktionieren
  • Die Prompt-Bibliothek kontinuierlich ausbauen und mit dem Team teilen
  • bewährteste Vorgehen direkt als Prompts in der Bibliothek speichern
  • Regelmäßige "Prompt-Sprechstunden", in denen Teams ihre Lösungen vorstellen

Kultureller Wandel: Aus "Mein Report, meine Regeln" wird eine gemeinsame Prompt-Bibliothek in heise I/O. Wissen wird geteilt, statt gehortet – erfolgreiche Prompts landen in der Team-Bibliothek. Best Practices verbreiten sich automatisch, weil alle dieselben optimierten Templates nutzen. Die Mitarbeiter können sich auf Wertschöpfung konzentrieren, statt auf Prompt-Basteleien.

Set-Up 4: Web, RAG & RSS-Feeds – die Faktencheck-Evolution

Die Arbeit mit dem KI-Tool läuft stabil, doch ein Problem bleibt: Die Daten im LLM (also dem Large Language KI-Model) selbst sind oft veraltet. "Wir schreiben über die Europa-Expansion von unserem Wettbewerber BYD mit Zahlen vom letzten Quartal", beschwert sich ein PM. Es wird Zeit für den nächsten Schritt: die Integration von Echtzeitdaten aus dem Web und die intelligente Suche in internen Dokumenten.

Dazu ist es nötig, entsprechende KI-Modelle auszuwählen. heise I/O bietet direkten Zugriff auf entsprechende Modelle mit Websuche-Funktion und ermöglicht weiterhin die Anbindung von Retrieval-Augmented Generation-Systemen (RAG). Letztere binden externe Datenquellen – etwa Wissensdatenbanken oder Dokumentenspeicher – ein und beziehen die gefundenen Inhalte dynamisch in die Antwortgenerierung ein.

Das Team erweitert seine bestehenden Prompt-Templates um Web-Recherche-Schritte. Ein neuer Prompt-Baustein "Aktuelle Marktentwicklungen" wird erstellt: Er nimmt die Variable {{Unternehmen}} und {{Region}}, lässt das KI-Modell gezielt im Web nach aktuellen Informationen suchen und filtert die Ergebnisse nach Relevanz.

Zusätzlich richtet das Team in heise I/O einige RSS-Feeds, also maschinell lesbare Nachrichtenströme, für wichtige Branchendienste ein. Das geht sehr einfach übers Einkopieren der Adressen. Nach der Einrichtung können relevante Artikel bei Bedarf mit einem Klick als zusätzliche Quellen genutzt werden. Dies ist besonders praktisch für wiederkehrende Analysen zu bestimmten Wettbewerbern oder Märkten.

. Nachdem das Unternehmen für den Zugriff auf hauseigene Informationen die relevanten Dokumente wie Analyst Reports, Strategie-Präsentationen und Protokolle bereitgestellt hat, wird ein RAG eingerichtet. Dabei werden die Informationen eine durchsuchbare Wissensdatenbank überführt, auf die die Prompts zugreifen können.

Die Integration dauert etwa sechs bis acht Wochen. Die meiste Zeit wird für die Vorbereitung und Strukturierung der internen Dokumente aufgebracht. Parallel dazu optimiert das Team seine Prompts für die Web-Suche und präzisiert die Anfragen so präzise, dass relevante Ergebnisse zurückkommen.

Das Ergebnis: Der erweiterte Wettbewerbs-Workflow nutzt nun weitere Informationsquellen und fasst sie wie gewohnt in einem Bericht zusammen:

  • Excel-Daten zu {{Wettbewerber}} in {{Region}} extrahieren
  • Web-Suche: "Aktuelle Entwicklungen {{Wettbewerber}} {{Region}} letzte 30 Tage"
  • RAG-Abfrage: "Interne Analysen und Einschätzungen zu {{Wettbewerber}}"
  • Optional: Analyse eingelesener Feed-Artikel zu spezifischen Themen
  • Synthese aller Quellen zu einem kohärenten Bericht
  • Faktencheck: Prüfung auf Konsistenz zwischen den Quellen

Der Ablauf als schematisches Diagramm:

Prozesschart RAG-Workflow
Prozesschart RAG-Workflow

Praktische Herausforderungen: Die Informationsflut ist enorm. Zu "BYD" findet die Web-Suche tausende Artikel. Die Lösung liegt in der Präzisierung der Prompts: spezifische Zeiträume, konkrete Themenfelder, klare regionale Eingrenzungen helfen, zu guten Ergebnissen zu kommen. Das Team entwickelt Best Practices für effektive Such-Prompts.

Die benötigte Expertise bleibt überschaubar:

  • Ein heise I/O-Administrator
  • Fachexperten, die relevante Dokumente für die RAG-Integration auswählen
  • Prompt-Spezialisten, die effektive Such-Strategien entwickeln
  • Ein Jurist für Compliance-Fragen bei der Dokumentennutzung

Die Auswirkungen sind deutlich spürbar: Als BYD überraschend eine neue Fabrik in Ungarn ankündigt, läuft folgender Prozess ab: Der Web-Such-Prompt findet die Breaking News, der RAG-Prompt liefert Kontext aus früheren Ungarn-Analysen, der Synthese-Prompt erstellt binnen Minuten einen Management-Alert. Was früher zwei Tage gedauert hätte, ist in einer Stunde erledigt.

Ein unerwarteter Nebeneffekt: Die RAG-Funktion macht vergessenes Wissen wieder zugänglich. Alte Präsentationen und Analysen, die in Archiven verstaubten, werden plötzlich wieder relevant und auffindbar.

Neue Arbeitsweisen entstehen: Statt manueller Recherche definieren PMs präzise Such-Prompts. Die Kombination aus aktuellen Web-Daten, kuratierten Feed-Artikeln und historischem Unternehmenswissen schafft eine neue Qualität der Analyse. Reports basieren auf systematischer Informationsgewinnung statt auf Zufallsfunden.

Das Ergebnis nach drei Monaten: Die Reports enthalten durchschnittlich zwölf verifizierte Quellen statt früher drei – und sind aktuell. Die Faktentreue steigt. Fehlinformationen werden durch den Abgleich mehrerer Quellen praktisch eliminiert. Und all das geschieht ohne komplexe Programmierung: nur durch die intelligente Nutzung der Websuche, Feed-Integration und RAG-Funktionen in heise I/O .

Set-Up 5: Automatisierungen – vom manuellen Anstoßen zur teilautonomen Kette

Michael Alberts, ein Kollege von Thomas aus dem Bereich Forschung und Entwicklung, erkennt nach den Erfolgen mit heise I/O und der Datenanreicherung ein sich wiederholendes Muster: Die Erstellung der Projektberichte – wenn auch nun datengestützt und qualitativ hochwertiger – erfordert immer noch händische Schritte, um die einzelnen Prompt-Templates in heise I/O nacheinander auszuführen. "Wo ein wiederkehrendes Muster, da eine Automatisierungsmöglichkeit", denkt sich Michael. Von intelligente KI-Agenten hat er schon gelesen und prüft, ob das eine Lösung sein könnte.
Illustration Chef Forschung und Entwicklung
Chef Forschung und Entwicklung Michael Alberts

Exkurs: Habe ich gerade wirklich einen KI-Agenten gebaut?

Unter dem trendigen Schlagwort "KI-Agent" wird derzeit viel verkauft, was gar keiner ist. Ein echter KI-Agent kann autonom handeln, also eigenständig eine Strategie zur Lösung von Aufgaben entwerfen, diese abarbeiten und sogar auftretende Probleme selbst lösen (siehe im Detail in unseren Deep Dive zu KI-Agenten). Dies trifft derzeit auf nur sehr wenige Produkte und Systeme zu, die mit intelligenten KI-Agenten werben. Meistens handelt es sich um allenfalls um teilautonome Systeme oder nur die automatisierte Ausführung von Schritten.

Um die Unterschiede verständlicher zu machen, hier eine Analogie aus dem Arbeitsleben: Einem Praktikanten geben wir detaillierte Schritt-für-Schritt-Anweisungen. Das entspricht unseren strukturierten Prompts aus dem Set-Up 3. Einem Junior-Mitarbeiter erklären wir das Ziel und zeigen ihm die verfügbaren Ressourcen, erwarten aber noch den Bedarf für Anleitung bei der Umsetzung. Hier befinden wir uns bei RAG- und Tool-Integration aus dem Set-Up 4. Erst bei einem Senior-Experten können wir uns auf die reine Zielvorgabe beschränken: „Das Projekt benötigt einen Bericht bis morgen, du kennst unsere Standards." Der Experte entwickelt einen Plan, sucht sich seine Ressourcen und Werkzeuge selbstständig, stellt nur bei Bedarf Rückfragen und präsentiert mir eine Lösung. Erst das ist echte agentische Autonomie. OpenAIs Produkt „Deep Research“ ist so ein Agent, der  selbstständig Informationen sammelt und abschließend einen umfangreichen Bericht ausgibt. Im Bereich zwischen Automatisierung und echter Autonomie gibt es viele feine Abstufungen, die wir in diesem und dem folgenden Kapitel kurz genauer betrachten werden. Wie in unserem Deep Dive zu KI-Agenten erläutert, sollte man eher von einem Spektrum sprechen: KI-Systeme können graduell mehr agency (Eigenständigkeit) erhalten – angefangen bei einfachen regelbasierten Automatismen bis zu hochgradig autonomen Agenten.

Das Konzept der LLM-Automatisierungen

Wir beginnen zunächst mit Automatisierungen. Hierbei werden typischerweise ein oder mehrere KI-Modelle mit anderen Anwendungen wie einem Mail-Programm verknüpft, um einfache, immer gleich ablaufende Prozesse ohne menschliche Eingriffe abbilden zu können.

Das Grundprinzip auf der KI-Seite ist einfach, aber wirkungsvoll: Wir setzen eines oder mehrere spezialisierte KI-Modelle und zugehörige Prompts so auf, dass sie klar definierte Aufgaben wie die Informationssuche oder den Faktencheck zuverlässig lösen. Wir steigern die Qualität und senken die Risiken, indem wir uns auf einen eng umrissenen Schritt konzentrieren. Im nächsten Schritt reihen wir mehrere solcher spezialisierten "Module" sowie bei Bedarf auch konventionelle Software wie ein Mailprogramm aneinander, um komplexere Aufgaben effizient zu lösen. Anders als bei einem intelligenten Agenten kann und muss der Mensch bei Bedarf noch eingreifen, etwa wenn es zu unerwarteten Problemen kommt.

Tipp: Eine hilfreiche Orientierung für Design Patterns, also Lösungs-Grundmuster, bietet Anthropic mit einer aktuellen Einordnung der häufigsten Patterns bei der LLM-Automatisierung (Quelle).

Der Ablauf als schematisches Diagramm:

Prozesschart Augumented LLM-Workflow
Prozesschart Augumented LLM-Workflow

Die Praxis: Nötige Tools

Um die verschiedenen KI-Modelle mit ihren zugehörigen Prompts sowie eventuelle externe Programme wie eine Mail-Software in festgelegter Abfolge automatisiert laufen zu lassen, braucht es spezialisierte Werkzeuge. In unserem Beispiel wird die Open-Source-Software n8n in der Cloud (als Docker-Container) verwendet. Sie kann aber auch lokal oder als Software-as-a-Service im Internet genutzt werden. Letzteres empfiehlt sich besonders für erste Tests. Im folgenden Exkurs finden Sie einen Überblick über Alternativen. Als Programm aus der Kategorie "Low-Code/No-Code" muss man bei n8n nicht programmieren, sondern kann sich die einzelnen Schritte auf einer grafischen Oberfläche "zusammenklicken" (Abbildung siehe weiter unten).

Exkurs: Werkzeuge für KI-Workflow-Automatisierungen

Die Tool-Landschaft für KI-gestützte Automatisierung verändert sich rasant. Aktuell gibt es drei zentrale Ansätze:

1. No-Code-/Low-Code-Plattformen: Tools wie n8n und Zapier bieten grafische Oberflächen, mit denen sich Workflows ohne Programmierkenntnisse erstellen lassen – ideal für standardisierte Prozesse mit API-Anbindung und LLM-Integration.

2. Codebasierte Frameworks: Für mehr Kontrolle und Komplexität eignen sich Tools wie LangGraph, ein Orchestrierungs-Framework für KI-Agenten, das auf dem Code-Framework LangChain basiert. Hier lassen sich LLM-gesteuerte Workflows mit Zustandslogik, Schleifen und Verzweigungen programmieren – perfekt für Entwicklerteams.

3. MCP (Model Context Protocol) als nächste Generation: Ein neuer Standard ist das Model Context Protocol (MCP). Es erlaubt LLMs, direkt aus der Chat-Oberfläche heraus mit Werkzeugen, Datenbanken und APIs zu interagieren. Komplexe Aufgaben können so innerhalb eines Chats gestartet und schrittweise von den Modellen selbst organisiert und ausgeführt werden – inklusive Werkzeugwahl.

In der folgenden Tabelle sehen Sie die Unterschiede im Detail:

Kategorie Beispiel-Tools / Standards Vorteile Einschränkungen Einsatzempfehlung
No-/Low-Code-Plattformen n8n, Zapier, Make Einfache Einrichtung, visuelle Oberfläche, gute Integration mit Tools Begrenzte Logiktiefe, weniger flexibel bei Sonderfällen Für standardisierte, wiederkehrende Prozesse ohne Programmierkenntnisse
Codebasierte Frameworks LangGraph, LangChain Volle Flexibilität, komplexe Logik, Entwicklerfreundlich Programmierkenntnisse erforderlich, höhere Einstiegshürde Für individuelle, komplexe Automatisierungen mit Zustandslogik
Universeller Konnektor Model Context Protocol (MCP) Direkte Modellsteuerung im Chat, dynamische Tool-Auswahl, zukunftsweisend Noch begrenzte Tool-Auswahl, eingeschränkte Kontrolle über Ausführungsdetails Für explorative, dialoggesteuerte Automatisierung mit wachsender Tool-Integration

 

Beispiel einer LLM-Automatisierung:

Michael und Thomas haben sich zunächst einen wenig komplexen Vorgang für einen automatisierten Workflow herausgesucht, um Erfahrung mit der Technologie zu bekommen: Sobald Thomas eine E-Mail von einer bestimmten Absenderin – etwa seiner Kollegin Lea – mit neuen Projektnotizen erhält, wird der E-Mail-Inhalt automatisch an ein KI-Modell weitergeleitet. Dieses LLM folgt einer klar definierten Aufgabe mit festgelegter Abfolge einzelner Verarbeitungsschritte. Ziel ist es, auf Basis der übermittelten Notizen und vordefinierter Projektparameter (z. B. Meilensteine, Zielmärkte, Produktstatus) einen ersten Entwurf für einen Projektbericht zu erstellen. Sobald die definierte Aufgabe abgeschlossen ist, wird der fertige Entwurf des Projektberichts automatisch an Thomas entweder per E-Mail zur weiteren Prüfung und Bearbeitung übermittelt. Alternativ könnte man zum Beispiel auch die Übermittlung in ein geteiltes Dokument einrichten.

Die Realisierung in n8n sieht so aus:

n8n Schemata Automated LLM / Agentic Workflows
Automated LLM / Agentic Workflows in n8n

Hier finden Sie den zugehörigen n8n-Code zum Herunterladen: Augmented LLM.

Für welche Prozesse eignen sich Automatisierungen?

Nicht jeder Prozess eignet sich für eine Automatisierung oder rechtfertigt den Aufwand. Es gilt immer abzuwägen, ob der Prozess wirklich so einheitlich ist, dass er mindestens in der Mehrzahl der Fälle ohne menschliche Intervention erfolgreich durchläuft. Besonders gut geeignete Kandidaten sind in der Regel solche, die sie im Setup 3 oder 4 schon mit strukturierten Prompts sehr häufig ausgeführt haben und wo sie wenig eingreifen mussten.

Leitfragen zur Eignung:

  • Wie repetitiv ist der Prozess und rechtfertigt das Volumen den Automatisierungsaufwand?
  • Wie uniform ist der Prozess in seinen Durchläufen? Wie häufig kommt es zu Ausnahme oder Sonderfällen?
  • Lässt sich alle benötigte Software und alle benötigten Informationen/Quellen im gewählten Automatisierungstoool überhaupt einbinden?
  • Sind menschliche Entscheidungen nötig, die die Automatisierung zu Fall bringen würden?
  • Wie hoch ist die Fehlertoleranz, und wie können Risiken minimiert werden?

Der Vorteil des Vorgehens liegt auf der Hand: Sobald also Kollegin Lea ihre Projektnotizen an Thomas sendet, startet der Prozess automatisch, verarbeitet die Inhalte und gleicht sie mit den hinterlegten Projekt-Eckdaten ab. Das Ergebnis sehen Sie im Anhang.

Implementierungsdauer: Das Werkzeug n8n ist über einen Docker-Container rasch installiert, wenn die Umgebung bereits vorhanden ist. Die Einarbeitung geht schnell. Ein bisschen Geduld ist bei dem Testen von Workflows gefragt. Der Aufwand steigt aber schnell sehr stark, wenn Sie umfangreiche Prozessketten mit dem Ansprechen verschiedener Software umsetzen wollen.

Benötigte Expertise:

  • IT-Wissen für das Set-Up des Werkzeugs und eventuell für die Integration weiterer Software
  • Mitarbeiter mit Prozessdenken
  • KI-Experten für die Auswahl der geeigneten Modelle und Schreiben der Prompts
  • Bei größeren und Business-kritischen Abläufen: Test-Manager für strukturierte Prüfung der Workflows
  • Change Manager für die schrittweise Einführung

Praktische Herausforderungen: Das Tool hat wie alle Werkzeuge so seine Tücken und es ist manchmal schwer erklärbar, warum die Prozesse nicht so durchlaufen, wie sie sollen. Als Unterstützung zur Problemlösung helfen KI-Chats aber häufig. Ansonsten ist Geduld gefragt.

Praktische Tipps für LLM-Automatisierungen:

  • Beschreiben Sie zunächst Ihre Aufgabe und die geplante Lösung so, als würden Sie sie einem neuen Kollegen erklären. Gehen Sie dabei auch auf die verwendete Software und deren Funktion im Workflow ein. Definieren Sie klar den Input und Output an jedem Arbeitsschritt. Je sorgfältiger Sie dabei waren, desto robuster und weniger fehleranfällig wird der gesamte Prozess.
  • Verwenden Sie leistungsstarke LLMs wie Gemini 2.5 Pro, o3 oder Claude 4 für die Entwicklung der Workflows. Bleiben Sie während der grundlegenden Entwicklung des Workflows zunächst bei einem LLM für die KI-unterstützten Arbeitsschritte und wechseln Sie nicht, denn das erschwert die Fehlersuche.
  • Wenn der Workflow steht, experimentieren Sie mit unterschiedlichen LLMs in den einzelnen Arbeitsschritten: Einige Modelle eignen sich gut für die Verwendung von Tools wie z. B. Claude 4. Auch die Stärken und Schwächen für verschiedene Aufgabentypen sollte bedacht werden.
  • Vergessen Sie nicht, Qualitätsprüfungen (Quality Gates) an strategisch wichtigen Stellen im Workflow vorzusehen. Prüfungen durch den Menschen – sogenannte "Human-in-the-Loop (HITL)-Designs" – sind besonders empfehlenswert. Auch das Zusammenspiel zweier LLMs, bei dem eines die Inhalte erzeugt und das andere sie kritisch prüft – kann die Qualität deutlich erhöhen.

Der Erfolg: Die Workflows waren anfangs verglichen mit einfachen Prompts deutlich schwerer zu bauen, aber relativ gut zu kontrollieren und langfristig eine ökonomisch gute Entscheidung – wenn denn ein sinnvoller Anwendungsfall gegeben ist. Dies sind idealerweise Prozesse, die häufig und relativ gleichförmig ablaufen, Software enthalten, die automatisch angesprochen werden kann, und im  Wesentlichen eine Arbeit erfordern, die zu den Stärken eines LLM zählt, also z.B. Texterstellung, Zusammenfassungen oder Textvergleiche.

Set-Up 6: KI-Agenten

Der nächste Evolutionsschritt, den Michael und Thomas nun in Betracht ziehen, ist radikaler: Was zuvor Menschen manuell oder KI teilautomatisiert erledigten, soll nun ein autonomer KI-Agent selbstständig übernehmen. Die beiden KI-Experimentatoren stellen sich vor: Eine Vorstandsmail trifft ein und der Agent analysiert eigenständig die Anfrage, entwickelt eine Strategie zur Berichtserstellung, entscheidet selbst über die Nutzung seiner Werkzeuge (z. B. Websuche) und erstellt einen vollständigen aktuellen Projektbericht – ohne dass Thomas jeden Einzelschritt vorgeben muss.

Noch weiter gedacht, wünschen sie sich komplexere Aufgaben wie etwa einen umfangreichen Marktbericht über E-Mobilität in China, die automatisch agentisch zusammengestellt werden. Sie haben gelesen, dass dazu eine Sammlung von spezialisierte Agenten eingesetzt werden könnte, die wie ein Team zusammenarbeiten. Dazu gehören zum Beispiel in ihrem Fall: ein Projekt -Agent, der alle internen Projektdetails kennt, ein Markt-Recherche-Agent, der globale Nachrichtenquellen durchforstet, ein China-Experten-Agent, der lokale Marktbesonderheiten versteht und schließlich ein Daten-Analyse-Agent, der Prognosen aus Rohdaten erstellt und ein Fakten-Check-Agent, der kritische Aussagen validiert. Schließlich bringt ein Redaktions-Agent alle Informationen in eine finale, gut lesbare Form.

Damit ein solches Zukunftsszenario funktionieren kann, braucht es zusätzlich einen Orchestrator-Agenten als Projektmanager, der die Gesamtaufgabe analysiert, sie in Teilaufgaben zerlegt, diese an passende Experten-Agenten delegiert und deren Zusammenarbeit koordiniert.

Die Umsetzung: Viele Wege

So einfach, wie sich die beiden das vorgestellt haben, ist die Umsetzung eines agentischen Systems aber nicht. Zunächst einmal gibt es – ähnlich wie bei Software – die Entscheidung über "Make or Buy".  Zwar gibt es Agenten wie Operator, die Webseiten ansteuern können oder Deep Research, das umfassende Web-Recherchen durchführen kann - doch für die vom Team geplante Umsetzung benötigt es weitere Bausteine, wie den Zugriff auf eigene Daten, Automatisierungen, Fact-Checks und Reviews. Der Einsatz separater, spezialisierter Agenten, die mit eigenen Prompts gesteuert werden, erlaubt außerdem eine stärkere Kontrolle und die Integration aller Learnings der bisherigen Erfahrungen im Team. Die beiden entscheiden sich daher wie auch bei der Automatisierung auf ein Agenten-Framework setzen, dass ihnen erlaubt Agenten im "Eigenbau" umzusetzen

Für den Bedarf von Michael und Thomas sind diese aber nicht sinnvoll einsetzbar. Sie müssen einen Agenten im "Eigenbau" umsetzen.  Wie bei LLM-Automatisierungen beschrieben, ist dazu zunächst eine Toolentscheidung für die Software-Umgebung für die Umsetzung zu treffen und müssen dann auf dieser Basis Prompts für alle Einzelagenten und den Orchestrator entworfen und getestet werden. Dieses Vorgehen ist komplex und würde den Rahmen dieses Deep Dives sprengen, daher verweisen wir an dieser Stelle für die Grundlagen auf unseren Deep Dive zu KI-Agenten und auf zukünftige Deep Dives, wo wir detaillierter auf solche Themen eingehen werden.

Der Ablauf als schematisches Diagramm:

Prozesschart Agenten-Workflow
Prozesschart Agenten-Workflow

Implementierungsdauer: Je nach Organisationsgröße und -komplexität dauert das von vier Wochen für den ersten lauffähigen Prototypen bis zu mehreren Monaten oder gar Jahren für den organisationsweiten Rollout auf erfolgskritische Prozesse in einem Großunternehmen. Zunächst muss die bestehende Prompt-Kette in einen autonomen Workflow überführt werden. Die Agenten benötigten Zugriff auf alle relevanten Systeme und müssen lernen, Anfragen zu verstehen, Arbeitspläne zu erstellen und diese selbstständig abzuarbeiten.

Praktische Herausforderungen: Aus mehr Autonomie folgt auch mehr Verantwortung. Sprachmodellen Werkzeuge in die Hand zu geben und ihnen freie Entscheidungsmöglichkeiten zu bieten, ist potenziell höchst riskant – und zwar in zweierlei Hinsicht: Zum einen können Fehler in Prozess und Ergebnis zu enormen Kosten im Unternehmen führen, zum anderen können Sicherheitslücken zu enormen Risiken für die IT-Sicherheit führen.

Beide Herausforderungen zu lösen, ist schwierig: Je mehr Autonomie ein Agent hat, desto größer ist der mögliche Lösungsraum und die möglichen Angriffsvektoren. Ein ausgeklügeltes System von Vertrauensstufen, robustes Testen und verlässliche Quality Gates sind daher essenziell. Ein wichtiger Grundsatz sind präzise Grenzen, sogenannte "Guardrails": Bei hoher Konfidenz und unkritischen Themen arbeitet der Agent autonom. Bei Unsicherheit oder kritischen Aussagen wird menschliche Überprüfung eingefordert (Human-in-the-Loop). Das Prinzip lautet: Bei unkritischen Aspekten teilweise loslassen, aber sehr klare Grenzen bei kritischen Themen setzen.

Multi-Agenten-Workflows potenzieren die Probleme. Besonders in großen Organisationen mit vielen parallelen Anfragen ist es herausfordernd, solche Systeme stabil und skalierbar zu gestalten. Die saubere Übergabelogik zwischen den Agenten ist oft der Knackpunkt – sie entscheidet darüber, ob ein komplexer Workflow zuverlässig funktioniert oder scheitert. Testing ist höchst anspruchsvoll, um einen wirklich stabilen Betrieb zu gewährleisten.

Technologische Barrieren: Sprachmodellen als nicht deterministischen Systemen fällt es schwer, konsistente Ergebnisse über viele Ausführungen hinweg zu liefern. Die Verlässlichkeit und Reproduzierbarkeit sind zentrale Herausforderungen. Auch die nahtlose Einbindung von Werkzeugen ist noch keine ausgereifte Technologie.

Psychologische und prozessuale Barrieren: Unsere traditionelle Art, Prozesse zu gestalten, ist oft nicht mit autonom arbeitenden KI-Agenten kompatibel. Die Kontrolle bei komplexeren Systemen aufzugeben, schreckt viele Menschen ab. "Das geht mir jetzt zu weit", hört man oft. Dennoch gilt es, diesen ersten Impuls zu überwinden und die Potenziale zu evaluieren, denn KI-Enthusiasten glauben, dass Multi-Agent-Workflows die Zukunft für Organisationen sind, die komplexe Wissensarbeit systematisch automatisieren wollen.

Benötigte Expertise:

  • Senior-KI-Spezialisten für die Agent-Architektur und Prompt-Engineering
  • Fachexperten, die Qualitätsstandards und Guardrails definieren
  • IT-Spezialisten (Systemintegratoren) für die Werkzeug-Anbindung und robuste Schnittstellen zwischen Agenten (bei Multi-Agent-Architekturen)
  • Qualitätssicherungs-Experten für umfassende Testing-Strategien
  • Change Manager für die Transformation hin zu autonomen Arbeitsprozessen

Erfolgsfaktoren:

  • Einfachheit im Design bevorzugen – komplizierte Ansätze verstärken oft Probleme
  • Leistungsstarke LLMs für das Design der Agent-Prompts verwenden
  • Klare Definition der Autonomie durch präzise Systemanweisungen
  • Grenzen für maximale Durchläufe und explizite Qualitätsansprüche
  • Quality Gates und Human-in-the-Loop an kritischen Stellen einsetzen
  • Schrittweises Testen jeder einzelnen Fähigkeit

Kritische Schlussbetrachtung

Die Integration von KI in bisher manuell durchgeführte Prozesse ist sinnvollerweise ein stufenweiser Prozess. Wir zeigen Ihnen in der folgenden Tabelle zur eigenen Einordnung einen Überblick über alle wesentlichen Stadien. Wir empfehlen, die Stadien sequenziell durchzulaufen. Je nach Organisation können sie unterschiedlich schnell umgesetzt werden. Je KI-affinier Ihre Mitarbeitenden, je weniger reguliert Ihre Branche, je kleiner Ihr Unternehmen, desto einfacher und schneller wird die Entwickliung sich durchlaufen lassen.

Dabei gilt auch: Je mehr es in Richtung agentische KI geht, desto experimenteller ist noch der Einsatz und desto mehr Pioniergeist und Risikofreude sind nötig. Umgekehrt sehen wir im Bereich der strukturierten Prompts und kleineren Automatisierungen noch viel Potenzial für sehr viele Organisationen. Dort ist man mit recht ausgereiften Tools unterwegs und kann mit vergleichsweise wenig Ressourceneinsatz – sowohl im Bezug auf Investitionen als auch auf KI-Wissen - viel Prozesseffizienz gewinnen.

Wir werden in einem kommenden Deep Dive genauer beleuchten, welche Prozesse im Hinblick auf ein Gesamtunternehmen sich für eine  KI-Unterstützung besonders eignen und ein Verfahren vorstellen, wie sie diese gezielt auswählen können.

Übersichtstabelle: KI-Workflow-Typen im Vergleich

Kategorie Workflow-Typ Kernprinzip Interaktion mit KI Quellen Daten/Wissen Typ. Komplexität der Aufgabe Implementierungsaufwand
1. Grundlegend Einfacher Chat Direkte Frage-Antwort Konversation Internes LLM-Wissen Einfach Niedrig
  Strukturierter Prompt Gelenkte KI-Ausgabe durch klare Anweisungen, Rolle, Format Detaillierter, spezifischer Prompt Internes LLM-Wissen Einfach – Mittel Niedrig – Mittel
2. Erweitert RAG (Retrieval Augm. Gen.) Anreicherung mit externem Wissen vor Antwortgenerierung Prompt + Abruf aus Wissensbasis Internes LLM-Wissen + externe Datenquellen Mittel Mittel – Hoch
  Werkzeug-unterstützt KI nutzt externe Tools/APIs für spezifische Aktionen (Suche, Berechnung) Prompt → LLM → Tool → LLM Internes LLM-Wissen + externe Tool-Ergebnisse Mittel Mittel
3. Automatisierung/semi-autonom Automatisierung mit LLM LLM als Teil einer automatisierten Prozesskette, die vom Menschen vorgegeben ist Konkrete Aufgabe (z. B. aus externem Tool wie Mail) → LLM → externe Tools (z. B. Excel) Internes LLM-Wissen + externe Tool-Daten, Prozesswissen aus der Organisation Mittel – Komplex Mittel – Hoch
4. Autonom Autonomer Agent Selbstständige Zielverfolgung inklusive eigenständigem Plan mit Gedächtnis, Lernen und Anpassung Übergeordnetes Ziel → Agent (selbstständige Iteration) Internes LLM-Wissen + Tools + Langzeitgedächtnis Komplex – sehr Komplex Sehr hoch
  Multi-Agenten Kollaboration mehrerer spezialisierter Agenten zur Lösung komplexer Aufgaben Komplexe Aufgabe → Orchestrator → Spezialagenten Wie Einzelagent + geteiltes Wissen + Orchestrierung Sehr komplex Sehr hoch
↔ Tabelle horizontal scrollbar

Für diesen Deep Dive aber schon mal unsere wesentlichen Tipps für die Einführung von KI-gestützten Workflows für Sie als übersichtliche Checkliste:

  • Starten Sie klein:  Chatbots helfen, Berührungsängste abzubauen. Signifikante Effizienzgewinne ergeben sich meist dann, wenn wiederholbare Aufgaben durch verlässliche Prompts unternehmensweit zur Verfügung gestellt werden(Set-Up 3). Die Investition bleibt auch dafür noch überschaubar, der Nutzen wird schnell sichtbar und ist deutlich höher als die Investition.
  • Behalten Sie die Qualität im Blick: Starten Sie mit enger menschlicher Kontrolle und zusätzlichen Qualitätssicherungs-Stufen. Oft zeigt der KI-Einsatz erst, welche Qualitätsansprüche eigentlich gelten, weil diese zuvor nur implizit von den Mitarbeitenden beachtet wurden.
  • Binden Sie zunächst nur wenige Mitarbeitende und kleine Prozessschritte ein, um Sicherheit zu gewinnen. Mit wachsender Erfahrung können Sie die KI schrittweise breiter und automatisierter oder gar autonomer einsetzen.
  • Betrachten Sie KI-unterstützte Workflows als kontinuierliche Verbesserungsprozesse: Optimieren Sie sowohl die Qualität der KI-Prompts ständig und erweitern Sie kontinuierlich die Anzahl der KI-gestützten Prozesse in Ihrer Organisation. Jeder Prompt steht für eine Aufgabe.
  • Prüfen Sie den Erfolg des KI-Einsatzes systematisch:  Welche Teams prompten wie häufig und wie erfolgreich? Wie viel Zeitersparnis ergibt sich real pro Prozess (unter Einbeziehung des Aufwandes von Prompt-Änderungen/Tool-Schulungen?) Wie verändert sich die Zufriedenheit der Mitarbeitenden mit ihrer Arbeit? Gibt es zum Beispiel kognitive Entlastungen, weil Mitarbeitende nervige Aufgaben loswerden oder fehlen ihnen umgekehrt geliebte Aufgaben, die nun die KI übernimmt?
  • Betrachten Sie die KI-Transformation als Investition: Rechnen Sie mit anfänglichen Mehraufwänden und prüfen Sie, ob die Prozesseffizienz langfristig tatsächlich steigt oder die Kosten nur verlagert werden. Ist letzteres der Fall, nutzen Sie spezialisiertes KI-Consulting.

Unterschätzen Sie den Faktor Mensch nie: Ohne Akzeptanz scheitert selbst die beste Technologie. KI wird Arbeitsabläufe verändern: Einige Aufgaben – besonders repetitive und regelbasierte  – werden künftig von Maschinen übernommen. Das kann Unsicherheit und Ängste auslösen. Entscheidend ist, diese Veränderungen offen zu kommunizieren: KI ersetzt nicht automatisch Menschen, aber sie verändert Rollen. Wer Mitarbeitende früh einbindet, Ängste ernst nimmt und neue Perspektiven aufzeigt, schafft Vertrauen.

Workflow Code-Links: