Prompt Engineering Grundlagen
Prompt Engineering ist die Kernkompetenz 2026. Lerne, wie du LLMs mit Struktur, Beispielen und Rollen zu zuverlaessigen Ergebnissen bringst.
Inhaltsverzeichnis
Prompt Engineering Grundlagen
Prompt Engineering ist die Kunst, einem LLM die richtige Aufgabe so zu stellen, dass es zuverlaessig das tut, was du willst. Klingt trivial - ist aber der Unterschied zwischen “netter Spielzeug-App” und “Produktions-Feature”.
Die gute Nachricht: Es gibt ein paar Muster, die immer helfen.
Der Unterschied
Schlechter Prompt
Schreib was ueber Katzen.
Das Ergebnis: irgendetwas. Mal Fakten, mal ein Gedicht, mal zu lang, mal zu kurz.
Besserer Prompt
Schreibe einen lockeren Blogpost ueber Katzen fuer Katzen-Einsteiger.
Laenge: 300-400 Woerter. Stil: freundlich, leicht humorvoll.
Gliederung:
- Einleitung (Hook mit persoenlicher Anekdote)
- 3 konkrete Tipps fuer neue Katzenhalter
- Abschluss mit Call-to-Action
Das Ergebnis ist reproduzierbarer und brauchbarer.
Die fuenf Schluessel
1. Sei spezifisch
LLMs raten, wenn sie muessen. Je mehr du vorgibst, desto besser:
- Ziel: Was soll rauskommen?
- Format: Markdown? JSON? Plaintext? Struktur?
- Laenge: Wie lang? 50 Woerter, 500 Woerter?
- Stil: Formal, casual, witzig, technisch?
- Zielgruppe: Anfaenger, Profis?
2. Nutze Beispiele (Few-Shot Prompting)
Beispiele sind der effektivste Trick. Zeig dem Modell, was du willst:
Extrahiere die Stimmung (positiv/negativ/neutral) aus Bewertungen.
Beispiele:
"Super Service, jederzeit wieder!" -> positiv
"War ok, nichts Besonderes." -> neutral
"Essen kam kalt, Kellner unfreundlich." -> negativ
Bewertung: "Die Pasta war perfekt, das Dessert meh."
Stimmung:
Das Modell versteht die Aufgabe sofort - auch komplexe Klassifikationen.
3. Gib eine Rolle
Du bist ein erfahrener Code-Reviewer.
Analysiere diesen Code und nenne maximal 3 konkrete Probleme.
Fokus auf: Sicherheit, Performance, Lesbarkeit.
Die “Du bist…”-Formel fokussiert das Modell. Es verhaelt sich, wie es das von einem Senior-Dev erwarten wuerde.
4. Strukturiere mit Tags
Besonders wichtig bei laengeren Prompts:
<aufgabe>
Schreibe eine kurze Zusammenfassung.
</aufgabe>
<stil>
Sachlich, 3 Saetze, keine Floskeln.
</stil>
<quelle>
[hier der lange Text ...]
</quelle>
Zusammenfassung:
XML-artige Tags helfen dem Modell, Abschnitte klar zu trennen - besonders bei Claude und GPT-5 sehr effektiv.
5. Lass das Modell “denken”
Chain-of-Thought (CoT) ist der beruehmteste Trick:
Ein Zug faehrt um 8:00 los mit 90 km/h.
Ein anderer um 8:30 mit 120 km/h auf gleicher Strecke.
Wann ueberholt der zweite den ersten?
Loese Schritt fuer Schritt, dann gib die Antwort.
Die Aufforderung “Schritt fuer Schritt” fuehrt zu deutlich besseren Ergebnissen - das Modell macht bessere Zwischenschritte und macht weniger Rechenfehler.
Strukturierte Ausgabe: JSON
Oft willst du das Ergebnis als Daten weiterverarbeiten. Bitte explizit um JSON:
Extrahiere aus der folgenden E-Mail Name, Firma und Anliegen.
Antworte AUSSCHLIESSLICH mit einem JSON-Objekt im Format:
{"name": "...", "firma": "...", "anliegen": "..."}
E-Mail:
Hallo, ich bin Max Mueller von ACME GmbH.
Ich haette Interesse an einem Angebot fuer Ihr Pro-Paket.
Ergebnis:
{"name": "Max Mueller", "firma": "ACME GmbH", "anliegen": "Angebot fuer Pro-Paket"}
Moderne APIs haben zusaetzlich einen JSON Mode oder Structured Output - die garantieren valides JSON.
Typische Fehler
Zu vage
Fasse das zusammen. <- unklar wie und wie lang
Widerspruechliche Anweisungen
Antworte kurz.
Gib alle Details.
Sei unterhaltsam.
Das Modell weiss nicht, welche Anforderung Vorrang hat - hierarchisch formulieren.
Negationen statt Zieldefinition
Statt:
Sei nicht zu lang. Vermeide Floskeln.
Lieber:
Antworte in maximal 3 Saetzen, sachlich.
“Keine Elefanten denken” funktioniert auch beim LLM schlecht - sag, was du willst, nicht was nicht.
Temperature und andere Parameter
Die meisten APIs haben Parameter, um das Verhalten zu tunen:
temperature(0.0 - 1.0): 0 = deterministisch, 1 = kreativtop_p: alternative Sampling-Methodemax_tokens: Obergrenze der Ausgabestop: Text-Marker, die Generierung abbrechen
Faustregel:
- Datenextraktion:
temperature=0 - Kreatives Schreiben:
temperature=0.7-1 - Code:
temperature=0.2-0.4
Ein fortgeschrittenes Beispiel
Eine robuste E-Mail-Klassifikation:
<rolle>
Du bist ein Support-Triagierer fuer einen SaaS-Anbieter.
Du klassifizierst eingehende Mails schnell und genau.
</rolle>
<aufgabe>
Klassifiziere die folgende Mail nach Kategorie, Dringlichkeit und
ob sie automatisiert beantwortet werden kann.
</aufgabe>
<kategorien>
- "billing" (Rechnung, Zahlung, Abo)
- "support" (technisches Problem)
- "feature" (Feature-Wunsch)
- "sales" (Verkaufsanfrage)
- "spam" (unerwuenscht)
</kategorien>
<dringlichkeit>
"hoch" (Service-Ausfall, zahlungsrelevant)
"mittel" (Alltag)
"niedrig" (kann warten)
</dringlichkeit>
<format>
Antworte NUR mit JSON:
{
"kategorie": "...",
"dringlichkeit": "...",
"kann_automatisiert": true|false,
"zusammenfassung": "..." // 1 Satz
}
</format>
<mail>
Hallo, meine Domain ist seit heute morgen nicht erreichbar,
die Kunden rufen an. Brauche dringend Hilfe!
Gruss, Max
</mail>
Das Ergebnis:
{
"kategorie": "support",
"dringlichkeit": "hoch",
"kann_automatisiert": false,
"zusammenfassung": "Kunden-Domain offline, akute Eskalation."
}
Zuverlaessig, parsbar, produktionsreif.
Iteratives Vorgehen
Prompt Engineering ist iterativ:
- Erste Version schreiben
- Mit 5-10 Beispielen testen
- Fehlerfaelle sammeln
- Prompt anpassen (Beispiele, Regeln ergaenzen)
- Wiederholen bis zufrieden
Oft lohnt es sich, einen Eval-Satz aufzubauen - 20-50 Beispiele, gegen die du jede Prompt-Version testest.
Zusammenfassung
- Sei spezifisch: Ziel, Format, Laenge, Stil, Zielgruppe angeben
- Few-Shot: Beispiele sind das maechtigste Tool
- Rollen fokussieren das Verhalten
- XML-Tags strukturieren lange Prompts
- “Schritt fuer Schritt” fuer Reasoning
- JSON fuer parsebare Ausgabe
- Temperature 0 fuer Datenextraktion, hoeher fuer Kreativitaet
Im naechsten Kapitel: Die Claude-API in der Praxis.