Zum Inhalt springen
KI & LLMs Anfänger 20 min

Was sind LLMs?

Large Language Models (LLMs) wie GPT, Claude und Gemini - wie sie funktionieren, was sie koennen und was nicht. Die Grundlage fuer alle KI-Tutorials.

Aktualisiert:
Inhaltsverzeichnis

Was sind LLMs?

Ein LLM (Large Language Model) ist ein riesiges neuronales Netz, das gelernt hat, Text fortzusetzen. Das ist grob der ganze Trick. Alles, was ChatGPT, Claude oder Gemini dir an scheinbar intelligenten Antworten gibt, entsteht aus dieser einen Faehigkeit: “Was kommt vermutlich als Naechstes?”

Klingt simpel, ist aber - in grossem Massstab - verblueffend maechtig.

Wie funktioniert das?

Token - die Grundeinheit

LLMs arbeiten nicht mit Zeichen oder Woertern, sondern mit Tokens. Ein Token ist ein kurzer Text-Schnipsel, oft 3-4 Zeichen lang.

Der Satz “Hallo, Welt!” wird z.B. in etwa folgende Tokens aufgeteilt:

[Hallo], [,], [ Welt], [!]

Das Modell sagt den naechsten Token voraus

Gib dem Modell den Anfang “Der Himmel ist ” - und es berechnet Wahrscheinlichkeiten fuer den naechsten Token:

  • “blau” - 62%
  • “grau” - 18%
  • “hoch” - 4%
  • “schoen” - 3%

Das Modell waehlt einen - gesteuert ueber einen Parameter namens Temperature - und haengt ihn an. Dann nimmt es den laengeren Text und rechnet erneut. Immer weiter, bis ein “Stop”-Token kommt oder das Limit erreicht ist.

Training

Das Modell hat diese Wahrscheinlichkeiten aus Milliarden Beispielen gelernt - aus dem Internet, Buechern, Code, Forenbeitraegen. Waehrend des Trainings hat es gelernt:

  • Grammatik
  • Faktenwissen
  • Programmcode-Muster
  • Stil und Tonalitaet
  • Reasoning-Muster (wie man Probleme loest)

Das alles steckt in ein paar hundert Milliarden numerischen Parametern - die “Gewichte” des Netzes.

Warum sind LLMs so maechtig?

Weil das Problem “naechster Token” alles umfasst:

  • Frage beantworten → letzter Token der Antwort vorhersagen
  • Code schreiben → naechster Token des Programms vorhersagen
  • Zusammenfassen → naechster Token der Zusammenfassung
  • Uebersetzen → naechster Token der Uebersetzung

Ein gut trainiertes Modell kann durch geschicktes Prompten fast jede Text-Aufgabe uebernehmen.

Wichtige Modelle 2026

ModellAnbieterBesonderheit
GPT-5OpenAIDer Klassiker, staendig neue Features
Claude Opus 4.7AnthropicStark bei Reasoning und Code
Gemini 2.5GoogleMultimodal, lange Kontext-Fenster
Llama 4MetaOpen-Source, lokal nutzbar
DeepSeek-V3DeepSeekOpen-Source, sehr guenstig

Was LLMs NICHT sind

Wichtig zu verstehen - sonst wirst du enttaeuscht oder baust Bugs ein:

Sie “wissen” nichts wirklich

LLMs haben kein Bewusstsein, keine Absicht. Sie sind statistische Systeme, die Muster erkennen.

Sie halluzinieren

LLMs erfinden manchmal Dinge - Fakten, Zitate, APIs, die es nicht gibt. Das ist kein Bug, sondern ein Nebeneffekt ihrer Funktionsweise: Sie geben “wahrscheinliche” Fortsetzungen, nicht unbedingt “wahre”.

Ihr Wissen ist veraltet

Ein Modell kennt die Welt nur bis zu seinem Training Cutoff - meist ein paar Monate vor Release. Fuer aktuelle Infos: Web-Search-Tools einbinden.

Sie koennen keine echte Mathematik

“Was ist 147 × 389?” gibt bei kleinen Modellen oft die falsche Antwort. Fuer Mathematik: Code-Execution-Tool dranhaengen.

Wie nutze ich LLMs als Entwickler?

Drei Ebenen:

1. Als Helfer beim Programmieren

  • Copilot, Claude Code, Cursor - KI schreibt oder vervollstaendigt deinen Code
  • Fuer fast jeden Entwickler heute Alltag

2. LLMs als API nutzen

  • Deine App ruft GPT, Claude oder Gemini auf
  • Beispiele: Chatbot, Text-Zusammenfassung, Uebersetzung, Code-Assistent
  • Das lernen wir in diesem Kurs

3. LLMs selbst trainieren oder fine-tunen

  • Eigene Modelle (auf Basis von Llama o.ae.)
  • Braucht viel Compute und Expertise
  • Fuer 99% der Anwendungen nicht noetig - APIs reichen

Was kommt in den naechsten Kapiteln?

  1. Prompt Engineering - wie du LLMs richtig steuerst
  2. Claude-API - Anthropics API von der ersten Zeile
  3. OpenAI-API - GPT in deinen Apps
  4. Embeddings & RAG - “Wissen” hinzufuegen, das nicht im Training war
  5. Agents - LLMs, die Tools nutzen koennen

Ein erstes Beispiel

Einen Aufruf zu Claude (in Python) - als Vorgeschmack:

from anthropic import Anthropic

client = Anthropic()

response = client.messages.create(
    model="claude-sonnet-4-6",
    max_tokens=300,
    messages=[{
        "role": "user",
        "content": "Erklaere in 3 Saetzen, was ein Token ist."
    }]
)

print(response.content[0].text)

Das ist alles. Keine Magie, keine Komplexitaet - du schickst einen String hin, bekommst einen String zurueck.

Zusammenfassung

  • LLMs sind Next-Token-Predictors, trainiert auf riesigen Textmengen
  • Sie koennen erstaunlich viel, halluzinieren aber auch
  • Wichtige Modelle: GPT, Claude, Gemini, Llama
  • Als Entwickler nutzt du LLMs meist ueber APIs
  • Prompt Engineering ist die zentrale neue Kompetenz

Im naechsten Kapitel: Prompt Engineering - wie du LLMs dazu bringst, zu tun was du willst.

Zurück zum KI & LLMs Kurs