Author
Daniel Flieger
QA Consultant

May 12, 2025

Die Ära der Künstlichen Intelligenz ist in vollem Gange, und große Sprachmodelle (LLMs) stehen im Zentrum dieser Revolution. Doch um das volle Potenzial dieser beeindruckenden Technologien auszuschöpfen, bedarf es mehr als nur beiläufiger Fragen. Hier setzt Prompt Engineering an – die Kunst und Wissenschaft, präzise und effektive Anweisungen (Prompts) zu formulieren, um von LLMs die gewünschten, qualitativ hochwertigen Antworten zu erhalten.

Lee Boonstras Whitepaper "Prompt Engineering", herausgegeben von Google, dient als ein hervorragender und umfassender Leitfaden in diese Disziplin. Es richtet sich an jeden, der mit LLMs arbeitet, und betont, dass man kein Datenwissenschaftler sein muss, um gute Prompts zu schreiben – auch wenn das Erstellen optimaler Prompts ein iterativer und durchaus komplexer Prozess sein kann.

Das Fundament: Wie LLMs arbeiten und wie wir ihre Antworten formen

Das Whitepaper beginnt mit der grundlegenden Erklärung, dass LLMs im Wesentlichen Vorhersage-Engines sind. Sie nehmen Text als Eingabe und prognostizieren, basierend auf den riesigen Datenmengen, mit denen sie trainiert wurden, das wahrscheinlichste nächste Wort oder Token. Prompt Engineering ist somit der Prozess, diese Vorhersagefähigkeit durch geschicktes Design der Eingabeaufforderung gezielt zu lenken.

Bevor man sich den eigentlichen Prompting-Techniken widmet, ist es entscheidend, die Konfigurationsparameter der LLM-Ausgabe zu verstehen. Dazu gehören:

  1. Ausgabelänge (Output Length): Bestimmt die maximale Anzahl der zu generierenden Tokens.
  2. Sampling Controls (Stichprobensteuerung): Hierunter fallen:
    • Temperatur (Temperature): Steuert den Grad der Zufälligkeit. Niedrige Werte führen zu deterministischeren, fokussierten Antworten, während höhere Werte Kreativität, aber auch Ungenauigkeit fördern können.
    • Top-K: Limitiert die Auswahl des nächsten Tokens auf die K wahrscheinlichsten Optionen.
    • Top-P (Nucleus Sampling): Wählt aus der kleinsten Token-Menge, deren kumulative Wahrscheinlichkeit einen bestimmten Schwellenwert erreicht.

Das Dokument erklärt, wie diese Einstellungen interagieren und gibt Empfehlungen für den Start. Es warnt auch vor dem "Repetition Loop Bug", einem Zustand, in dem Modelle durch unpassende Einstellungen in Wiederholungsschleifen geraten können.

Die Werkzeugkiste des Prompt-Ingenieurs: Vielfältige Techniken

Das Herzstück des Whitepapers bildet die detaillierte Vorstellung verschiedener Prompting-Techniken, die je nach Anwendungsfall und gewünschtem Ergebnis eingesetzt werden können:

  • General Prompting / Zero-Shot: Die einfachste Form, bei der der Prompt nur die Aufgabenbeschreibung ohne Beispiele enthält.
  • One-Shot & Few-Shot Prompting: Dem LLM werden ein (One-Shot) oder mehrere (Few-Shot) Beispiele für die gewünschte Ausgabe gegeben. Dies ist oft sehr effektiv, um dem Modell das gewünschte Format und den Stil zu vermitteln.
  • System, Contextual und Role Prompting: Diese Techniken helfen, den Rahmen der Interaktion zu definieren.
    • System Prompting legt den übergeordneten Kontext oder die "Persönlichkeit" des Modells fest (z.B. "Du bist ein Assistent, der Code in Python schreibt und erklärt.").
    • Contextual Prompting liefert spezifische Hintergrundinformationen zur aktuellen Aufgabe.
    • Role Prompting weist dem LLM eine spezifische Rolle zu (z.B. "Agieren Sie als erfahrener Reisejournalist."), was Ton und Inhalt der Antwort stark beeinflusst.

Für komplexere Herausforderungen stellt das Whitepaper fortgeschrittenere Ansätze vor:

  • Step-Back Prompting: Das LLM wird gebeten, zunächst eine allgemeinere, verwandte Frage zu beantworten, deren Erkenntnisse dann in den spezifischen Prompt einfließen, um relevanteres Wissen zu aktivieren.
  • Chain of Thought (CoT) Prompting: Das Modell wird angewiesen, seine Denkprozesse oder Zwischenschritte zur Lösung einer Aufgabe offenzulegen, bevor es die endgültige Antwort gibt. Dies verbessert besonders bei Rechen- oder Logikaufgaben die Genauigkeit.
  • Self-Consistency: Eine Erweiterung von CoT, bei der mehrere Denkpfade generiert und die häufigste Antwort als die robusteste ausgewählt wird.
  • Tree of Thoughts (ToT): Ermöglicht es LLMs, mehrere verschiedene Denkpfade gleichzeitig zu explorieren, ähnlich einer Baumstruktur, was bei Aufgaben mit hohem Erkundungsbedarf nützlich ist.
  • ReAct (Reason & Act): Ein mächtiges Paradigma, das LLMs befähigt, durch eine Kombination aus logischem Denken (Reason) und der Nutzung externer Werkzeuge (Act) – wie z.B. einer Websuche – komplexe Aufgaben zu lösen.
  • Automatic Prompt Engineering (APE): Ein faszinierender Ansatz, bei dem ein LLM selbst dazu verwendet wird, effektive Prompts zu generieren oder bestehende zu optimieren.

Spezialanwendungen und übergreifende Konzepte

Das Dokument geht auch auf das Code Prompting ein und zeigt, wie LLMs beim Schreiben, Erklären, Übersetzen und sogar Debuggen von Code unterstützen können. Ein kurzer Hinweis auf multimodales Prompting, bei dem neben Text auch andere Eingabeformate wie Bilder oder Audio genutzt werden, rundet diesen Teil ab.

Der Weg zur Meisterschaft: Unverzichtbare Best Practices

Abschließend präsentiert das Whitepaper eine wertvolle Sammlung von Best Practices, die als Leitfaden für jeden Prompt-Ingenieur dienen sollten:

  1. Beispiele liefern (Provide examples): One-Shot oder Few-Shot ist oft der Schlüssel zum Erfolg.
  2. Einfachheit und Präzision (Design with simplicity & be specific): Prompts sollten klar und prägnant sein, aber dennoch spezifische Angaben zur gewünschten Ausgabe machen.
  3. Instruktionen vor Einschränkungen (Use Instructions over Constraints): Sagen Sie dem Modell, was es tun soll, anstatt nur, was es vermeiden soll.
  4. Ausgabelänge kontrollieren (Control the max token length): Passen Sie die Länge an den Bedarf an.
  5. Variablen nutzen (Use variables in prompts): Für dynamische und wiederverwendbare Prompts.
  6. Experimentieren (Experiment with input/output formats and writing styles): Testen Sie verschiedene Ansätze, inklusive strukturierter Ausgabeformate wie JSON, und nutzen Sie Tools wie json-repair oder Schema-Definitionen.
  7. Anpassungsfähigkeit (Adapt to model updates): Bleiben Sie flexibel, da sich Modelle weiterentwickeln.
  8. Kollaboration (Experiment together): Der Austausch mit anderen kann neue Perspektiven eröffnen.
  9. Spezifische CoT-Regeln beachten: Setzen Sie die Temperatur bei CoT auf 0 und platzieren Sie die Antwort nach der Begründung.
  10. Dokumentation, Dokumentation, Dokumentation (Document the various prompt attempts): Dieser Punkt kann nicht genug betont werden. Eine systematische Erfassung von Prompts, Einstellungen, Modellversionen und Ergebnissen ist unerlässlich, um Lernfortschritte zu erzielen und Fehler nachzuvollziehen.

Fazit: Die Brücke zur intelligenten Interaktion

Lee Boonstras Whitepaper "Prompt Engineering" ist eine unverzichtbare Lektüre für jeden, der das Potenzial von LLMs voll ausschöpfen möchte. Es zeigt eindrücklich, dass effektives Prompting eine Fähigkeit ist, die aus einer Mischung von analytischem Denken, Kreativität und diszipliniertem, iterativem Experimentieren entsteht. Die vorgestellten Techniken bieten ein reichhaltiges Repertoire, und die Best Practices, insbesondere der Appell zur sorgfältigen Dokumentation, legen das Fundament für nachhaltigen Erfolg. Wer die Kunst des Prompt Engineering beherrscht, baut die entscheidende Brücke zu einer wirklich intelligenten und produktiven Interaktion mit künstlicher Intelligenz.

Quellen:

Prompt Engineering V4.