Prompt Engineering

Mit Hilfe optimierter Eingaben (sog. Prompts) werden auf generativer, künstlicher Intelligenz (KI) beruhende Large Language Models (LLM) so bedient, dass sie möglichst genau die Anforderungen ihrer Anwender:innen erfüllen. Das Entwerfen, Anwenden und Verbessern solcher Eingaben wird Prompt Engineering genannt. Kernelemente des Prompt Engineerings sind: Rollenzuweisung, Beschreibung des Kontexts, Erläuterung der Aufgabe und das Geben von passenden Beispielen. Speziell für Projektmanagement-Aufgaben können LLMs wertvolle inhaltliche Unterstützung geben.

Prompt Engineering

Prompt Engineering

Mit Hilfe optimierter Eingaben (sog. Prompts) werden auf generativer, künstlicher Intelligenz (KI) beruhende Large Language Models (LLM) so bedient, dass sie möglichst genau die Anforderungen ihrer Anwender:innen erfüllen. Das Entwerfen, Anwenden und Verbessern solcher Eingaben wird Prompt Engineering genannt. Kernelemente des Prompt Engineerings sind: Rollenzuweisung, Beschreibung des Kontexts, Erläuterung der Aufgabe und das Geben von passenden Beispielen. Speziell für Projektmanagement-Aufgaben können LLMs wertvolle inhaltliche Unterstützung geben.

Prompt Engineering

Einsatzmöglichkeiten

  • Unterstützung beim Erstellen von projektspezifischen Texten wie z.B. Produktbeschreibungen oder Business Case
  • Analyse von Projektdaten und Präsentation der Ergebnisse
  • Coaching, Begleitung und Nacharbeit für methodisch durchgeführte Projektarbeiten
  • Erstellen von Stoffsammlungen als Input für kreative Prozesse
  • Recherche von Optionen zur Lösung von Problemen und Aufgaben
  • Unterstützung bei der Durchführung von Workshops und Besprechungen

Dies sind nur einige Beispiele für zahlreiche Einsatzmöglichkeiten von KI im Projektzusammenhang. Die aktuell rasante Entwicklung von KI-Modellen und KI-Tools eröffnet nahezu täglich weitere und leistungsfähigere Anwendungen.

Ergebnisse

  • Abfolge von anpassbaren Prompts, die eine Aufgabenstellung für ein generatives LLM beschreibt.
  • Ausgaben des generativen LLM
  • Überarbeitete Ausgaben des generativen LLM als einsatzbereiter Text

Vorteile

Die Ausgaben der generativen LLM entsprechen mit systematischen Prompts besser dem eigenen Bedarf als bei freier Eingabe des Anliegens.
Durch das systematische Ausarbeitung des Prompts wird einem selbst das eigene Anliegen klarer und man ist in der Lage, es präziser zu formulieren.
Der erhöhte Aufwand für das Ausarbeiten des Prompts führt zu einer wesentlich stärkeren Reduzierung des Aufwands für Korrektur und Nachbearbeitung der Ausgabe.

Durchführung: Schritt für Schritt

Die enorme Leistungsfähigkeit generativer Large Language Models liegt nicht darin, Probleme zu lösen, sondern darin, anspruchsvolle Inhalte kontextspezifisch aufzubereiten und in unterschiedlichen Formaten darzustellen. Damit können sie eine äußerst wertvolle Hilfe in der Projektkommunikation und im Wissensmanagement sein, vorausgesetzt, sie werden richtig angewendet. Dies ist Gegenstand des sogenannten Prompt Engineerings, d.h. des optimalen Formulierens von Befehlen für den Chatbot.

Die in den ersten Jahren kursierenden Tricks, um die Leistungsfähigkeit von Chatbots zu erhöhen (z.B. das Versprechung einer monetären Belohnung), können mittlerweile als nicht mehr relevant betrachtet werden. Die kontinuierliche Weiterentwicklung der Modelle erübrigt zum einen solche "Cheats", zum anderen macht sie es immer wichtiger, qualifizierte Prompts zu erstellen.

Nach wie vor müssen wir uns auf einen Lernprozess einlassen, in dem sowohl wir lernen, wie wir dieses neue Werkzeug sinnvoll und effizient bedienen, als auch die Algorithmen und ihre Entwickler:innen lernen, wie sie die Anforderungen der Anwender:innen am besten erfüllen können. Diese Methodenbeschreibung legt deshalb besonderen Wert auf das Sammeln von Erfahrungen und das kontinuierliche Lernen.

Installieren Sie einen KVP für die Verwendung von KI in Ihrer Organisation!

Haben Sie bereits ein funktionierendes Wissensmanagement in Ihrem Unternehmen, mit dem Sie neue Erfahrungswerte (Lessons Learned) dokumentieren und wieder abrufen können? Dann gehören Sie zu den vermutlich wenigen Prozent Glücklichen, die nur eine neue Kategorie in ihrem Wissensmanagement-System anlegen müssen, z.B. ″Einsatz von Chatbots″.

Für alle anderen empfehle ich als einfachste Möglichkeit, eine Übersichtstabelle (z.B. in einem Tabellenkalkulationsprogramm) und eine Vorlage für eine Textdokumentation anzulegen, in der dann die Chatverläufe abgespeichert werden können. Verwenden Sie einen Ablageort, auf den alle im Team zugreifen können und den sie auch täglich verwenden, z.B. eine Sharepoint-Ablage oder Confluence oder ein anderes dafür geeignetes Collaboration-Tool. Tabelle 1 zeigt eine mögliche Struktur einer solchen Übersichtstabelle.

Datum

Autor:in

Aufgabe

Prompt-Typ

Qualität

Chatbot

Link zur Doku

29.2.2024

ga

Anleitung für Prompt Engineering erstellen

Einfacher Befehl

untauglich

Google Gemini

Prompt Engineering

4.3.2024

xy

Zusammenfassung eines Berichts erstellen

Rolle, Aufgabe, Qu-Kriterien

Zufriedenstellend

Microsoft Copilot

Tabelle 1: Mögliche Tabellenstruktur für eine Übersicht von Erfahrungswerten für Prompt Engineering

Erstellen Sie auch eine Vorlage für die ausführliche Dokumentation. Diese sollte mindestens die entsprechende Tabellenzeile und den gesamten Chatverlauf enthalten. Sinnvoll ist, dass insbesondere die verwendeten Prompts kommentiert und Empfehlungen gegeben werden.

Natürlich ist es nicht sinnvoll, alle Promptverläufe zu dokumentieren, sondern nur diejenigen, aus denen sich etwas lernen lässt.

Für die Auswertung können Sie selbstverständlich einen Chatbot verwenden, dem Sie diese Daten geben. Gemini bietet hierzu die Funktion Notebook-LM an, bei der Sie zu einem Thema eine Dateisammlung anlegen können.

Die eleganteste Möglichkeit für einen Erfahrungsspeicher des Prompt Engineerings besteht darin, einen personalisierten Chatbot für diesen Zweck einzurichten, zu dem alle Teammitglieder Zugang haben.

Aufgabengebiete

Alle Kommentare (7)

Miriam
Miriam Hasselhoff

Vielen Dank für den Input -…

Vielen Dank für den Input - gerne mehr davon!

Vielen Dank - was sind Ihre Erfahrungen?

Hallo Herr Warkentin,
herzlichen Dank für die spontane und positive Rückmeldung!
Prompt Engineering und KI sind ja ganz aktuelle und beständig sich verändernde Themen.
Ich freue mich auch sehr über - auch noch so kleine - Feedbacks und Erfahrungen!
Viel Erfolg bei Ihren Projekten!
Georg Angermeier

Profile picture for user tbohinc@t-online.de
Tomas
Bohinc
Dr.

Sehr hilfreiche Methode zum…

Sehr hilfreiche Methode zum Umgang mit KI.
Vielen Dank George für die sehr umfangreiche Darstellung im Umgang mit KI. Dieser Beitrag hat mir sehr geholfen KI systematischer einzusetzen.

Vielen Dank!

Lieber Tomas,
das freut mich sehr! Wir arbeiten weiter intensiv daran, das Thema KI insbesondere für den Projektalltag praxisgerecht darzustellen. Wie heißt es so schön: Stay tuned!
Georg

Profile picture for user fred.schroeder@schroeder-consultants.de
Fred
Schröder

Es ist (immer wieder) das generische Prozessmodell

Die Qualität, Vollständigkeit, Struktur der Disposition, Befähigung des LLM für die internen Prozesse, die externen Recherchen (Ressourcen), die Herstellung der Ergebnisse ist m. E. das immer wiederkehrende Szenario, quasi die "unendliche Geschichte" des Projektmanagements. Dazu gehören auch die Menschen, die genau das dafür erforderliche systematische Denken & Handeln (Methoden) beherrschen und von big picture bis zum Detail das Modell im Kopf haben. Deswegen ist Prompt-Engineering die genau passende Bezeichnung.
Genau in der Erfordernis eines sowohl ganzheitlichen als auch detaillierten Vorgehen liegt das Risiko des Scheiterns infolge mangelnder Kompetenz.

Profile picture for user fred.schroeder@schroeder-consultants.de
Fred
Schröder

Antwort auf von Georg Angermeier

Prompt Engineering

Lieber Herr Angermeier,
hallo Georg,
ich habe sogar in einem LI Post kostenfrei Reklame für die Serie gemacht :)
Wenn ich das richtig gesehen habe, kann ich mir die Folge 2 u 3 sowieso schon herunterladen. Das sollte ich am WE schaffen.
Vielen Dank & Grüße
Fred