Was sind LLMs?
Large Language Models (LLMs) wie GPT, Claude und Gemini - wie sie funktionieren, was sie koennen und was nicht. Die Grundlage fuer alle KI-Tutorials.
Inhaltsverzeichnis
Was sind LLMs?
Ein LLM (Large Language Model) ist ein riesiges neuronales Netz, das gelernt hat, Text fortzusetzen. Das ist grob der ganze Trick. Alles, was ChatGPT, Claude oder Gemini dir an scheinbar intelligenten Antworten gibt, entsteht aus dieser einen Faehigkeit: “Was kommt vermutlich als Naechstes?”
Klingt simpel, ist aber - in grossem Massstab - verblueffend maechtig.
Wie funktioniert das?
Token - die Grundeinheit
LLMs arbeiten nicht mit Zeichen oder Woertern, sondern mit Tokens. Ein Token ist ein kurzer Text-Schnipsel, oft 3-4 Zeichen lang.
Der Satz “Hallo, Welt!” wird z.B. in etwa folgende Tokens aufgeteilt:
[Hallo], [,], [ Welt], [!]
Das Modell sagt den naechsten Token voraus
Gib dem Modell den Anfang “Der Himmel ist ” - und es berechnet Wahrscheinlichkeiten fuer den naechsten Token:
- “blau” - 62%
- “grau” - 18%
- “hoch” - 4%
- “schoen” - 3%
- …
Das Modell waehlt einen - gesteuert ueber einen Parameter namens Temperature - und haengt ihn an. Dann nimmt es den laengeren Text und rechnet erneut. Immer weiter, bis ein “Stop”-Token kommt oder das Limit erreicht ist.
Training
Das Modell hat diese Wahrscheinlichkeiten aus Milliarden Beispielen gelernt - aus dem Internet, Buechern, Code, Forenbeitraegen. Waehrend des Trainings hat es gelernt:
- Grammatik
- Faktenwissen
- Programmcode-Muster
- Stil und Tonalitaet
- Reasoning-Muster (wie man Probleme loest)
Das alles steckt in ein paar hundert Milliarden numerischen Parametern - die “Gewichte” des Netzes.
Warum sind LLMs so maechtig?
Weil das Problem “naechster Token” alles umfasst:
- Frage beantworten → letzter Token der Antwort vorhersagen
- Code schreiben → naechster Token des Programms vorhersagen
- Zusammenfassen → naechster Token der Zusammenfassung
- Uebersetzen → naechster Token der Uebersetzung
Ein gut trainiertes Modell kann durch geschicktes Prompten fast jede Text-Aufgabe uebernehmen.
Wichtige Modelle 2026
| Modell | Anbieter | Besonderheit |
|---|---|---|
| GPT-5 | OpenAI | Der Klassiker, staendig neue Features |
| Claude Opus 4.7 | Anthropic | Stark bei Reasoning und Code |
| Gemini 2.5 | Multimodal, lange Kontext-Fenster | |
| Llama 4 | Meta | Open-Source, lokal nutzbar |
| DeepSeek-V3 | DeepSeek | Open-Source, sehr guenstig |
Was LLMs NICHT sind
Wichtig zu verstehen - sonst wirst du enttaeuscht oder baust Bugs ein:
Sie “wissen” nichts wirklich
LLMs haben kein Bewusstsein, keine Absicht. Sie sind statistische Systeme, die Muster erkennen.
Sie halluzinieren
LLMs erfinden manchmal Dinge - Fakten, Zitate, APIs, die es nicht gibt. Das ist kein Bug, sondern ein Nebeneffekt ihrer Funktionsweise: Sie geben “wahrscheinliche” Fortsetzungen, nicht unbedingt “wahre”.
Ihr Wissen ist veraltet
Ein Modell kennt die Welt nur bis zu seinem Training Cutoff - meist ein paar Monate vor Release. Fuer aktuelle Infos: Web-Search-Tools einbinden.
Sie koennen keine echte Mathematik
“Was ist 147 × 389?” gibt bei kleinen Modellen oft die falsche Antwort. Fuer Mathematik: Code-Execution-Tool dranhaengen.
Wie nutze ich LLMs als Entwickler?
Drei Ebenen:
1. Als Helfer beim Programmieren
- Copilot, Claude Code, Cursor - KI schreibt oder vervollstaendigt deinen Code
- Fuer fast jeden Entwickler heute Alltag
2. LLMs als API nutzen
- Deine App ruft GPT, Claude oder Gemini auf
- Beispiele: Chatbot, Text-Zusammenfassung, Uebersetzung, Code-Assistent
- Das lernen wir in diesem Kurs
3. LLMs selbst trainieren oder fine-tunen
- Eigene Modelle (auf Basis von Llama o.ae.)
- Braucht viel Compute und Expertise
- Fuer 99% der Anwendungen nicht noetig - APIs reichen
Was kommt in den naechsten Kapiteln?
- Prompt Engineering - wie du LLMs richtig steuerst
- Claude-API - Anthropics API von der ersten Zeile
- OpenAI-API - GPT in deinen Apps
- Embeddings & RAG - “Wissen” hinzufuegen, das nicht im Training war
- Agents - LLMs, die Tools nutzen koennen
Ein erstes Beispiel
Einen Aufruf zu Claude (in Python) - als Vorgeschmack:
from anthropic import Anthropic
client = Anthropic()
response = client.messages.create(
model="claude-sonnet-4-6",
max_tokens=300,
messages=[{
"role": "user",
"content": "Erklaere in 3 Saetzen, was ein Token ist."
}]
)
print(response.content[0].text)
Das ist alles. Keine Magie, keine Komplexitaet - du schickst einen String hin, bekommst einen String zurueck.
Zusammenfassung
- LLMs sind Next-Token-Predictors, trainiert auf riesigen Textmengen
- Sie koennen erstaunlich viel, halluzinieren aber auch
- Wichtige Modelle: GPT, Claude, Gemini, Llama
- Als Entwickler nutzt du LLMs meist ueber APIs
- Prompt Engineering ist die zentrale neue Kompetenz
Im naechsten Kapitel: Prompt Engineering - wie du LLMs dazu bringst, zu tun was du willst.