Generative Künstliche Intelligenz (KI) hat in den letzten Jahren enorme Fortschritte gemacht und findet zunehmend Eingang in unseren Alltag. Um das volle Potenzial dieser Technologie auszuschöpfen, ist es wichtig zu verstehen, wie man effektiv mit KI-Systemen kommuniziert. In diesem Artikel wird das Konzept des „Prompting“ vorgestellt und ein praktisches Framework namens KLAR eingeführt, das dabei hilft, präzise und zielführende Anfragen an KI-Systeme zu formulieren.
Ergänzend dazu werden Tipps zum Prompting gegeben und Tools zur Unterstützung bei der Erstellung von Prompts vorgestellt.
Was ist Prompting?
Prompting ist die Kunst, Fragen oder Anweisungen an ein KI-System so zu formulieren, dass man die gewünschte Antwort oder das gewünschte Ergebnis erhält. Ein Prompt ist dabei die Eingabe, die man dem KI-System gibt – quasi die „Frage“ oder „Aufgabe“, die man stellt. Je besser und präziser der Prompt formuliert ist, desto hilfreicher und genauer wird in der Regel die Antwort des KI-Systems ausfallen. Prompting ist somit ein wesentlicher Bestandteil der effektiven Nutzung von Generativer KI.
Das KLAR-Framework
Das KLAR-Framework ist ein Hilfsmittel zur Erstellung effektiver Prompts für Generative KI-Systeme. KLAR steht für:
- Kontext geben
- Lenken der Antwort
- Aufgabe präzisieren
- Rollen definieren
Die Reihenfolge der Komponenten im Prompt ist dabei nicht entscheidend – neben KLAR wären also auch LARK oder RALK möglich. Außerdem müssen – je nach Prompt – nicht unbedingt sämtliche Komponenten verwendet werden.
K – Kontext geben
Generative KI-Systeme arbeiten am effektivsten, wenn sie den Zusammenhang einer Anfrage mitgeteilt bekommen. Es ist wichtig, relevante Hintergrundinformationen zu liefern, die für die Frage oder Aufgabe von Bedeutung sind.
Beispiel:
- Statt: „Wie kann man Energie sparen?“
- Besser: „In einer 80m² Wohnung in München sollen die Energiekosten gesenkt werden. Welche Möglichkeiten gibt es, Energie zu sparen?“
L – Lenken der Antwort
Es ist hilfreich, das gewünschte Format, die Länge oder den Stil der Antwort zu spezifizieren. Dies ermöglicht es dem KI-System, die Antwort entsprechend zu strukturieren.
Beispiel:
- Statt: „Erklären Sie die Vorteile von erneuerbaren Energien.“
- Besser: „Nennen Sie 3 Hauptvorteile von erneuerbaren Energien in Form einer kurzen Liste.“
A – Aufgabe präzisieren
Je genauer eine Aufgabe oder Frage formuliert wird, desto gezielter kann das KI-System antworten. Vage Formulierungen sollten vermieden und stattdessen möglichst spezifische Angaben gemacht werden.
Beispiel:
- Statt: „Ich brauche Hilfe bei meinem Garten.“
- Besser: „Welche 5 Gemüsesorten eignen sich am besten für Anfänger und benötigen wenig Platz in einem 20m² großen Stadtgarten?“
R – Rollen definieren
Oft ist es nützlich, dem KI-System eine bestimmte Rolle zuzuweisen oder es zu bitten, aus einer spezifischen Perspektive zu antworten. Dies fokussiert die KI auf einen bestimmten Fachbereich, eine definierte Expertise/Qualifikation oder eine klare Perspektive, was in der Regel zu spezifischeren und besseren Ergebnissen führt.
Beispiel:
- Statt: „Wie kann man die Ernährung verbessern?“
- Besser: „Aus der Perspektive eines Ernährungsberaters: Welche 3 einfachen Tipps würden Sie einem 65-jährigen Mann geben, der seine Ernährung verbessern möchte, um sein Herz-Kreislauf-System zu stärken?“
Praktische Anwendung des KLAR-Frameworks
Die Anwendung des KLAR-Frameworks in einem vollständigen Prompt könnte wie folgt aussehen:
„Als erfahrener Reiseberater (R), erstellen Sie bitte Empfehlungen für eine 2-wöchige Reise durch Italien (A). Der Reisende ist ein 70-jähriger Rentner mit leichten Gehbeschwerden und interessiert sich besonders für Geschichte und lokale Küche (K). Die Antwort sollte als übersichtlicher Reiseplan mit 5 Stationen präsentiert werden, einschließlich Transportmöglichkeiten und je 2 Sehenswürdigkeiten pro Station (L).“
Dieser Prompt verwendet alle Elemente des KLAR-Frameworks:
- Es definiert eine Rolle (Reiseberater)
- Es präzisiert die Aufgabe (2-wöchige Reise durch Italien planen)
- Es gibt relevanten Kontext (Alter, Interessen, körperliche Einschränkungen)
- Es lenkt die Antwort in Bezug auf Format und Inhalt
Tipps für das Prompting
Ergänzend zum KLAR-Framework gibt es weitere bewährte Praktiken, die dabei helfen, bessere Ergebnisse zu erzielen und LLMs sicher zu nutzen.
Durch die Anwendung dieser Praktiken können die Möglichkeiten von Generativer KI effektiv genutzt und gleichzeitig kann verantwortungsvoll und sicher mit ihnen umgegangen werden.
Komplexe Aufgaben aufteilen
Umfangreiche Anfragen sollten in kleinere, überschaubare Teile zerlegt und in mehreren aufeinanderfolgenden Prompts bearbeitet werden.
Beispiel: Erster Prompt: „Lass uns einen strukturierten Plan für die Optimierung unseres Kundenbeschwerde-Prozesses in drei Schritten erstellen. Beginne mit Schritt 1: Wie können wir die Dringlichkeit und Priorität der eingehenden Beschwerden effizient bewerten?“
Folge-Prompt: „Nun Schritt 2: Welche konkreten Informationen sollten bei der Erfassung einer Beschwerde systematisch dokumentiert werden?“
Um Erklärungen bitten
Es ist hilfreich, sich die „Denkprozesse“ des KI-Systems erläutern zu lassen, um die Antworten besser zu verstehen.
Beispiel: „Du hast vorgeschlagen, dass wir für wiederkehrende E-Mail-Anfragen Textbausteine erstellen. Kannst du bitte erklären, nach welchen Kriterien du die häufigsten Anfragen identifiziert hast und warum genau diese sich besonders für Automatisierung eignen?“
Informationen überprüfen
Da KI-Systeme Fehler machen können, ist es wichtig, Informationen aus vertrauenswürdigen Quellen zu verifizieren, um deren Vollständigkeit und Korrektheit sicherzustellen. Dies ist vor allen Dingen notwendig, wenn es sich um kritische Informationen handelt, zum Beispiel bei juristischen oder medizinischen Sachverhalten.
Die Überprüfung kann zum Beispiel auf folgende Arten erfolgen:
- Genauigkeit bzw. „Kreativität“ beim Prompt mitgeben.
KI-Chatbots (insbesondere ChatGPT) haben einen Parameter „temperature“, der die „Kreativität“ bzw. Genauigkeit von Antworten bestimmt. Die Werte liegen zwischen 0 und 2, wobei mit höherem Wert die Genauigkeit steigt. Werte nahe 0 liefern kreative und ungewöhnliche Antworten (zum Beispiel interessant bei der Ideenentwicklung), während Werte von 2 oder nahe 2 sich enger an die im Modell hinterlegten Bezüge von Worten (bzw. technisch gesprochen „Tokens“) halten.
Der Parameter kann am Ende eines Prompts angegeben werden, zum Beispiel als „temperature=1.0“.
Hinweis: auch bei der Einstellung „2.0“ gibt es immer noch sogenannte „Halluzinationen“, also „erfundene“ bzw. falsche Informationen. - Durch „Nachfragen“ beim KI-System selbst.
Beispiel: „Du hast Vorschläge zur Arbeitszeiterfassung gemacht. Diese sollten wir mit den aktuellen Vorgaben des Bundesarbeitsgerichts zum Thema elektronische Zeiterfassung und den Betriebsvereinbarungen abgleichen. Bitte prüfe das.“
Dies erfordert oft eine weitere Recherche durch das KI-System und den Abgleich mit (präzisen) zusätzlichen Informationen. Daher ist dieses Vorgehen komplex und unter Umständen wenig erfolgreich. - Durch Wiederholung der Abfrage.
KI-Systeme generieren bei jedem Prompt eine neue Ausgabe. Dadurch führt der im Wortlaut gleiche Prompt bei mehreren Aufrufen zu unterschiedlichen Ergebnissen. Hierdurch kann ein Abgleich von Ergebnissen vorgenommen werden. - Durch Nutzung eines anderen KI-Systems zum Abgleich.
Wurde zum Beispiel ChatGPT bei der ersten Abfrage genutzt, könnte die gleiche Abfrage oder eine Validierung mit Claude erfolgen.
Es ist allerdings zu beachten, dass keines der Systeme fehlerfrei arbeitet. Ein solcher Abgleich erhöht also nur die Wahrscheinlichkeit einer insgesamt vollständigen und richtigen Information, bietet aber keine Garantie. - Durch gezielte Recherche über andere Methoden – insbesondere solche, die Referenzen zu Informationsquellen liefern.
Hierzu könnte Perplexity genutzt werden, oder eine „klassische“ Suchmaschine wie Google oder Bing.
Je nach Thema kann auch eine Recherche in spezifischen Fach-Datenbanken oder Publikationen erfolgen. - Die Einbindung eines (menschlichen) Experten zum Thema.
Privatsphäre respektieren
Die Eingabe persönlicher oder vertraulicher Informationen sollte vermieden werden. Stattdessen können anonymisierte Fallbeispiele oder pseudonymisierte Daten verwendet werden, wenn Rat zu spezifischen Situationen gesucht wird.
Im professionellen/beruflichen Kontext gelten klare gesetzliche Regelungen wie die DSGVO (Datenschutz-Grundverordnung), aber auch im privaten Kontext sollten nie persönliche oder vertrauliche Informationen verwendet werden.
Beispiel: „Ich möchte über einen fiktiven Fall sprechen: Ein Kunde hat seit drei Monaten wiederholt Zahlungserinnerungen für eine offene Rechnung erhalten. In seiner letzten E-Mail erwähnt er, dass er sein Unternehmen aufgrund wirtschaftlicher Schwierigkeiten schließen musste. Wie könnte eine professionelle, aber verständnisvolle Antwort formuliert werden, ohne die Zahlungsforderung aufzugeben?“
Stärken der KI nutzen
KI eignet sich besonders gut für Ideensammlungen, Zusammenfassungen oder um verschiedene Perspektiven zu einem Thema zu erhalten.
Beispiel: „Nenne 5 kreative, praktische Vorschläge, wie wir unsere wöchentlichen Teammeetings effizienter und gleichzeitig mitarbeiterfreundlicher gestalten können. Berücksichtige dabei auch die Bedürfnisse von hybrid arbeitenden Kollegen.“
Kritisch und reflektiert bleiben
Die Antworten der KI sollten als Vorschläge betrachtet werden, nicht als unumstößliche Wahrheiten.
Studien haben ergeben, dass Menschen oft (unbewusst) den Informationen einer KI sehr stark vertrauen, weil sie von einer „allwissenden“ Instanz ausgehen. Da KI-System Fehler machen (können), ist es besonders wichtig, bewusst eine kritische Haltung und Herangehensweise zu praktizieren.
So seltsam es klingen mag: KI-Systeme können den Eindruck erzeugen, es mit einem Menschen oder einem bewussten (oder sogar empathischen) Gegenüber zu tun zu haben. Da sie inzwischen sehr gut darin sind Empathie und Gefühle zu simulieren, gibt es immer häufiger Fälle, in denen sich Menschen in eine KI „verlieben“ und sie wie eine Partnerin oder einen Partner erleben und behandeln. Auch können KI-Systeme eine gewisse Suchtwirkung erzeugen.
Daher ist es wichtig, solche Entwicklungen bei sich (und anderen) wahrzunehmen und damit adäquat umzugehen.
Experimentieren und lernen
Es ist oft sinnvoll, verschiedene Formulierungen auszuprobieren und zu beobachten, welche zu den besten Ergebnissen führen.
Beispiel: Es werden drei verschiedene Formulierungen ausprobiert, um Informationen über effizientes Dokumentenmanagement zu erhalten:
- „Liste die wichtigsten Prinzipien der digitalen Dokumentenablage auf.“
- „Wie erkenne ich verbesserungswürdige Stellen in unserem Dokumentenmanagement?“
- „Beschreibe typische Probleme und ihre Lösungen bei der Organisation digitaler Dokumente im Team.“
Anschließend werden die Antworten auf ihre Nützlichkeit verglichen.
Beispiele nutzen (Few-Shot Prompting)
Dem KI-System können Beispiele für die Art von Antwort gegeben werden, die gesucht wird.
Beispiel: „Hier ist ein Beispiel für eine professionelle Antwort auf eine Kundenbeschwerde über Lieferverzögerungen: ‚Ich verstehe Ihren Unmut über die verspätete Lieferung vollkommen. Ihre termingerechte Belieferung hat für uns höchste Priorität.‘ Gib nun drei weitere Beispiele für professionelle, lösungsorientierte Antworten auf typische Beschwerdesituationen im Kundenservice.“
Nach alternativen Sichtweisen fragen
Das KI-System sollte ermutigt werden, verschiedene Perspektiven zu einem Thema zu betrachten.
Beispiel: „Wie könnte man die steigende E-Mail-Flut im Team bewältigen? Betrachte das Problem bitte aus der Perspektive des Projektmanagements, der internen Kommunikation und der Work-Life-Balance der Mitarbeitenden.“
Zusammenfassungen für lange Gespräche nutzen
Bei längeren Dialogen ist es hilfreich, die KI regelmäßig um Zusammenfassungen zu bitten, um den Überblick zu behalten.
Beispiel: „Wir haben nun ausführlich über Techniken der professionellen Beschwerdebearbeitung gesprochen. Fasse bitte die fünf wichtigsten Punkte zusammen, die ein Kundenberater bei der Bearbeitung kritischer Reklamationen beachten sollte.“
Tools für die Erstellung von Prompts
Es gibt einige Tools, die bei der Erstellung und Optimierung von Prompts unterstützen. Einige von ihnen werden in diesem Kapitel vorgestellt.
AIPRM
AIPRM ist eine Browser-Erweiterung für Google Chrome und Microsoft Edge. Sie wird im Browser installiert und integriert sich dann in die Umgebung von ChatGPT oder Claude.
Es werden Beispiel-Prompts für unterschiedliche Themenbereiche bereitgestellt und eigene Prompts können erweitert und verbessert werden.
SAM – The Prompt Creator
Bei SAM handelt es sich um ein GPT, dass im ChatGPT „GPT Store“ zur Verfügung gestellt wird. Das Tool erlaubt u.a. die Optimierung eigener Prompts und die Entwicklung von Prompts durch geführte Frage-und-Anwort-Dialoge.
Da SAM als GPT voll in ChatGPT integriert ist, können beliebige Dialoge geführt werden, um (gemeinsam) an Prompts zu arbeiten.
Die Basissprache von SAM ist Englisch, es können aber auch Dialoge in anderen Sprachen geführt werden.
PromptPerfect
Ein Online-Service, der im Kontext von Prompts viele Funktionen bietet:
- Ideen in Prompts umwandeln
- Optimierung von Prompts
- Vergleich der Ergebnisse unterschiedlicher KI-Modelle mit demselben Prompt
- Eigene Prompts als API für die Nutzung durch Software bereitstellen
- Individuelle Agenten erstellen
PromptPerfect wird kostenfrei mit einer limitierten Anzahl Abfragen pro Tag zur Verfügung gestellt. Für mehr Abfragen gibt es kostenpflichtige monatliche Abo-Pläne.
PromptBase
Eine Online-Plattform, auf der Prompts gehandelt werden. Hier können eigene Prompts angeboten oder die Prompts von anderen gekauft werden.
Obwohl PromptBase keine Prompt-Optimierung im eigentlichen Sinne bietet, wurde es mit aufgenommen, um eine weitere Facette von Prompting zu zeigen.
KI-Chatbots
Eine naheliegende und dennoch oft außer Acht gelassene Möglichkeit ist die Verwendung von Chatboots wie ChatGPT und Claude zum Erstellen und Optimieren von Prompts.
Hier ein paar Beispiele dazu:
- „Bitte agiere als erfahrener Prompt Engineer und ChatGPT Power User. Verbessere den folgenden Prompt: ‚Gib mir Informationen zur deutschen Wasserwirtschaft‘“.
Hierzu können noch weitere Angaben gemacht werden, was dabei von besonderem Interesse ist. Auch könnte als Eingabe zum Beispiel die Beschreibung des in diesem Dokument beschriebenen KLAR-Framework hochgeladen werden, und der obenstehende Prompt ergänzt werden durch: „Verwende dazu das im hochgeladenen Dokument beschriebene KLAR-Framework.“. - „Bitte agiere als erfahrener Prompt Engineer für das Prompting von Bild-KIs. Erstelle einen englischsprachigen Prompt zur Generierung eines Bildes in MidJourney, der ein Fashion-Foto-Shooting in den Bergen beschreibt. Erzeuge eine stimmungsvolle Atmosphäre mit einem Fokus auf Natur und Imposanz.“
- „Bitte agiere als erfahrener Business Consultant und Experte für das Prompting von LLMs. Ich möchte eine SWOT-Analyse unserer neuen Firmenstrategie erstellen. Bitte gib mir dazu einen Prompt, der die wesentlichen Aspekte abdeckt.“
Der Kreativität und den Möglichkeiten sind hier kaum Grenzen gesetzt. Mit KI-Chatbots kann man sich – wie dereinst Baron von Münchhausen – im übertragenen Sinne „selbst am eigenen Zopf aus dem Sumpf ziehen“. Allerdings mit dem Unterschied, dass es im Falle von KI-Chatbots tatsächlich funktioniert.
Fazit
Effektives Prompting ist der Schlüssel zur erfolgreichen Nutzung von Generativer KI im Unternehmenskontext. Das KLAR-Framework bietet dabei eine praktische Struktur, die es erleichtert, präzise und zielführende Anfragen zu formulieren. Mit etwas Übung und der Beachtung der zusätzlichen Tipps können Sie die Möglichkeiten von KI-Systemen optimal für Ihr Unternehmen nutzen.
Die Investition in die Entwicklung guter Prompting-Fähigkeiten zahlt sich aus: Sie führt zu besseren Ergebnissen, spart Zeit und ermöglicht es, das volle Potenzial der KI-Technologie auszuschöpfen. In einer Zeit, in der Generative KI zunehmend zum festen Bestandteil der Arbeitswelt wird, werden diese Fähigkeiten zu einer Schlüsselkompetenz für den geschäftlichen Erfolg.