Zum Inhalt springen
KI & LLMs Anfänger 25 min

Prompt Engineering Grundlagen

Prompt Engineering ist die Kernkompetenz 2026. Lerne, wie du LLMs mit Struktur, Beispielen und Rollen zu zuverlaessigen Ergebnissen bringst.

Aktualisiert:
Inhaltsverzeichnis

Prompt Engineering Grundlagen

Prompt Engineering ist die Kunst, einem LLM die richtige Aufgabe so zu stellen, dass es zuverlaessig das tut, was du willst. Klingt trivial - ist aber der Unterschied zwischen “netter Spielzeug-App” und “Produktions-Feature”.

Die gute Nachricht: Es gibt ein paar Muster, die immer helfen.

Der Unterschied

Schlechter Prompt

Schreib was ueber Katzen.

Das Ergebnis: irgendetwas. Mal Fakten, mal ein Gedicht, mal zu lang, mal zu kurz.

Besserer Prompt

Schreibe einen lockeren Blogpost ueber Katzen fuer Katzen-Einsteiger.
Laenge: 300-400 Woerter. Stil: freundlich, leicht humorvoll.
Gliederung:
- Einleitung (Hook mit persoenlicher Anekdote)
- 3 konkrete Tipps fuer neue Katzenhalter
- Abschluss mit Call-to-Action

Das Ergebnis ist reproduzierbarer und brauchbarer.

Die fuenf Schluessel

1. Sei spezifisch

LLMs raten, wenn sie muessen. Je mehr du vorgibst, desto besser:

  • Ziel: Was soll rauskommen?
  • Format: Markdown? JSON? Plaintext? Struktur?
  • Laenge: Wie lang? 50 Woerter, 500 Woerter?
  • Stil: Formal, casual, witzig, technisch?
  • Zielgruppe: Anfaenger, Profis?

2. Nutze Beispiele (Few-Shot Prompting)

Beispiele sind der effektivste Trick. Zeig dem Modell, was du willst:

Extrahiere die Stimmung (positiv/negativ/neutral) aus Bewertungen.

Beispiele:
"Super Service, jederzeit wieder!" -> positiv
"War ok, nichts Besonderes." -> neutral
"Essen kam kalt, Kellner unfreundlich." -> negativ

Bewertung: "Die Pasta war perfekt, das Dessert meh."
Stimmung:

Das Modell versteht die Aufgabe sofort - auch komplexe Klassifikationen.

3. Gib eine Rolle

Du bist ein erfahrener Code-Reviewer.
Analysiere diesen Code und nenne maximal 3 konkrete Probleme.
Fokus auf: Sicherheit, Performance, Lesbarkeit.

Die “Du bist…”-Formel fokussiert das Modell. Es verhaelt sich, wie es das von einem Senior-Dev erwarten wuerde.

4. Strukturiere mit Tags

Besonders wichtig bei laengeren Prompts:

<aufgabe>
Schreibe eine kurze Zusammenfassung.
</aufgabe>

<stil>
Sachlich, 3 Saetze, keine Floskeln.
</stil>

<quelle>
[hier der lange Text ...]
</quelle>

Zusammenfassung:

XML-artige Tags helfen dem Modell, Abschnitte klar zu trennen - besonders bei Claude und GPT-5 sehr effektiv.

5. Lass das Modell “denken”

Chain-of-Thought (CoT) ist der beruehmteste Trick:

Ein Zug faehrt um 8:00 los mit 90 km/h.
Ein anderer um 8:30 mit 120 km/h auf gleicher Strecke.
Wann ueberholt der zweite den ersten?

Loese Schritt fuer Schritt, dann gib die Antwort.

Die Aufforderung “Schritt fuer Schritt” fuehrt zu deutlich besseren Ergebnissen - das Modell macht bessere Zwischenschritte und macht weniger Rechenfehler.

Strukturierte Ausgabe: JSON

Oft willst du das Ergebnis als Daten weiterverarbeiten. Bitte explizit um JSON:

Extrahiere aus der folgenden E-Mail Name, Firma und Anliegen.

Antworte AUSSCHLIESSLICH mit einem JSON-Objekt im Format:
{"name": "...", "firma": "...", "anliegen": "..."}

E-Mail:
Hallo, ich bin Max Mueller von ACME GmbH.
Ich haette Interesse an einem Angebot fuer Ihr Pro-Paket.

Ergebnis:

{"name": "Max Mueller", "firma": "ACME GmbH", "anliegen": "Angebot fuer Pro-Paket"}

Moderne APIs haben zusaetzlich einen JSON Mode oder Structured Output - die garantieren valides JSON.

Typische Fehler

Zu vage

Fasse das zusammen.       <- unklar wie und wie lang

Widerspruechliche Anweisungen

Antworte kurz.
Gib alle Details.
Sei unterhaltsam.

Das Modell weiss nicht, welche Anforderung Vorrang hat - hierarchisch formulieren.

Negationen statt Zieldefinition

Statt:

Sei nicht zu lang. Vermeide Floskeln.

Lieber:

Antworte in maximal 3 Saetzen, sachlich.

“Keine Elefanten denken” funktioniert auch beim LLM schlecht - sag, was du willst, nicht was nicht.

Temperature und andere Parameter

Die meisten APIs haben Parameter, um das Verhalten zu tunen:

  • temperature (0.0 - 1.0): 0 = deterministisch, 1 = kreativ
  • top_p: alternative Sampling-Methode
  • max_tokens: Obergrenze der Ausgabe
  • stop: Text-Marker, die Generierung abbrechen

Faustregel:

  • Datenextraktion: temperature=0
  • Kreatives Schreiben: temperature=0.7-1
  • Code: temperature=0.2-0.4

Ein fortgeschrittenes Beispiel

Eine robuste E-Mail-Klassifikation:

<rolle>
Du bist ein Support-Triagierer fuer einen SaaS-Anbieter.
Du klassifizierst eingehende Mails schnell und genau.
</rolle>

<aufgabe>
Klassifiziere die folgende Mail nach Kategorie, Dringlichkeit und
ob sie automatisiert beantwortet werden kann.
</aufgabe>

<kategorien>
- "billing" (Rechnung, Zahlung, Abo)
- "support" (technisches Problem)
- "feature" (Feature-Wunsch)
- "sales" (Verkaufsanfrage)
- "spam" (unerwuenscht)
</kategorien>

<dringlichkeit>
"hoch" (Service-Ausfall, zahlungsrelevant)
"mittel" (Alltag)
"niedrig" (kann warten)
</dringlichkeit>

<format>
Antworte NUR mit JSON:
{
  "kategorie": "...",
  "dringlichkeit": "...",
  "kann_automatisiert": true|false,
  "zusammenfassung": "..." // 1 Satz
}
</format>

<mail>
Hallo, meine Domain ist seit heute morgen nicht erreichbar,
die Kunden rufen an. Brauche dringend Hilfe!

Gruss, Max
</mail>

Das Ergebnis:

{
  "kategorie": "support",
  "dringlichkeit": "hoch",
  "kann_automatisiert": false,
  "zusammenfassung": "Kunden-Domain offline, akute Eskalation."
}

Zuverlaessig, parsbar, produktionsreif.

Iteratives Vorgehen

Prompt Engineering ist iterativ:

  1. Erste Version schreiben
  2. Mit 5-10 Beispielen testen
  3. Fehlerfaelle sammeln
  4. Prompt anpassen (Beispiele, Regeln ergaenzen)
  5. Wiederholen bis zufrieden

Oft lohnt es sich, einen Eval-Satz aufzubauen - 20-50 Beispiele, gegen die du jede Prompt-Version testest.

Zusammenfassung

  • Sei spezifisch: Ziel, Format, Laenge, Stil, Zielgruppe angeben
  • Few-Shot: Beispiele sind das maechtigste Tool
  • Rollen fokussieren das Verhalten
  • XML-Tags strukturieren lange Prompts
  • “Schritt fuer Schritt” fuer Reasoning
  • JSON fuer parsebare Ausgabe
  • Temperature 0 fuer Datenextraktion, hoeher fuer Kreativitaet

Im naechsten Kapitel: Die Claude-API in der Praxis.

Zurück zum KI & LLMs Kurs