Dein erster KI-Node: Die Basic LLM Chain
Verbinde n8n mit GPT-4o oder Claude und baue deine erste KI-gestützte Automatisierung: einen E-Mail-Klassifizierer mit der Basic LLM Chain.
🔄 In der letzten Lektion hast du die Grundlagen gelernt: Nodes, Trigger, Datenfluss. Du hast sogar deinen ersten Workflow gebaut — Webhook rein, JSON raus. Aber der Workflow hat nur statische Daten weitergegeben. Jetzt wird’s intelligent.
Was du lernst
Am Ende dieser Lektion hast du einen funktionierenden KI-Workflow: einen E-Mail-Klassifizierer, der eingehende Nachrichten automatisch nach Kategorie und Priorität sortiert — mit der Basic LLM Chain.
Die Basic LLM Chain: Der einfachste KI-Node
Die Basic LLM Chain ist dein Einstieg in KI mit n8n. Sie macht genau eine Sache: Nimmt einen Prompt, schickt ihn an ein Sprachmodell und gibt die Antwort weiter. Kein Schnickschnack, keine Agenten-Logik — einfach Prompt rein, Antwort raus.
Aufbau:
- System-Prompt — Definiert, was die KI tun soll (ihre „Rolle")
- LLM-Provider — Welches Modell genutzt wird (GPT-4o, Claude, Gemini)
- Input — Die Daten aus dem vorherigen Node (z.B. E-Mail-Text)
- Output — Die KI-Antwort als JSON
Na gut, das klingt simpel. Ist es auch — und genau das ist der Punkt. Die meisten KI-Automatisierungen brauchen keinen Agenten. Eine gut konfigurierte LLM Chain reicht für 80% der Anwendungsfälle.
✅ Quick Check: Wann brauchst du eine Basic LLM Chain statt eines AI Agents? (Wenn deine Aufgabe klar definiert ist: Input → KI-Verarbeitung → Output. Klassifizierung, Zusammenfassung, Übersetzung, Datenextraktion — alles LLM-Chain-Aufgaben. Agenten brauchst du erst, wenn die KI selbst entscheiden muss, welche Tools sie nutzt.)
Credentials einrichten
Bevor du den KI-Node nutzen kannst, brauchst du einen API-Key:
OpenAI (GPT-4o):
- Geh zu platform.openai.com → API Keys → „Create new secret key"
- In n8n: Settings → Credentials → „Add Credential"
- Suche nach „OpenAI" → füge deinen Key ein
- Speichern
Anthropic (Claude):
- console.anthropic.com → API Keys → „Create Key"
- In n8n: Credential für „Anthropic" anlegen
- Key einfügen, speichern
Wichtig: n8n speichert Credentials verschlüsselt. Der Key ist nie im Workflow sichtbar. Bei Self-Hosting liegt die Verschlüsselung unter deiner Kontrolle — noch ein DSGVO-Vorteil.
Praxis: E-Mail-Klassifizierer bauen
Lass uns einen Workflow bauen, der eingehende E-Mails automatisch klassifiziert. Das ist einer der häufigsten KI-Automationsuse-Cases — und ein perfekter Einstieg.
Schritt 1: Trigger
Nutze den Gmail Trigger (oder Email Trigger):
- Event: „New Email"
- Label: „INBOX"
- Poll-Intervall: alle 5 Minuten
Der Trigger gibt dir JSON mit from, subject, body, date.
Schritt 2: Basic LLM Chain hinzufügen
- Klicke rechts vom Trigger auf „+"
- Suche nach „Basic LLM Chain"
- Verbinde den Node
Schritt 3: LLM-Provider verbinden
- Klicke auf den Basic LLM Chain Node
- Im Bereich „Model": Wähle „OpenAI Chat Model" (oder Anthropic)
- Wähle dein Credential aus
- Modell: GPT-4o (oder claude-sonnet-4-6)
Schritt 4: System-Prompt definieren
Das ist der entscheidende Teil. Dein Prompt bestimmt, wie gut die Klassifizierung funktioniert:
Du bist ein E-Mail-Klassifizierer für ein deutsches Unternehmen.
Klassifiziere die eingehende E-Mail nach:
1. KATEGORIE (genau eine):
- anfrage: Allgemeine Frage oder Informationsanfrage
- beschwerde: Unzufriedenheit, Problem, Reklamation
- bestellung: Bestellung, Auftrag, Kaufinteresse
- rechnung: Rechnung, Zahlung, Mahnung
- bewerbung: Stellenbewerbung, Initiativbewerbung
- intern: Interne Kommunikation, Teamabstimmung
- spam: Werbung, Phishing, irrelevant
2. PRIORITAET: hoch | mittel | niedrig
3. ZUSAMMENFASSUNG: Maximal 1 Satz
Antworte NUR als JSON:
{"kategorie": "...", "prioritaet": "...", "zusammenfassung": "..."}
Schritt 5: Input konfigurieren
Im „Prompt"-Feld der LLM Chain referenzierst du die E-Mail-Daten:
Von: {{ $json.from }}
Betreff: {{ $json.subject }}
Text: {{ $json.body }}
Schritt 6: Output verarbeiten
Die LLM Chain gibt dir JSON zurück. Füge einen IF-Node hinzu:
- Bedingung:
{{ $json.text }}enthält"hoch" - True-Branch → Slack-Benachrichtigung (dringende E-Mail!)
- False-Branch → Label in Gmail setzen
✅ Quick Check: Warum definiert der System-Prompt „Antworte NUR als JSON"? (Weil nachfolgende Nodes die Ausgabe programmatisch verarbeiten müssen. Ein IF-Node kann
{"prioritaet": "hoch"}auswerten, aber „Die E-Mail scheint dringend zu sein" nicht zuverlässig.)
System-Prompt Best Practices
| Regel | Warum | Beispiel |
|---|---|---|
| Rolle definieren | Fokussiert die KI | „Du bist ein E-Mail-Klassifizierer" |
| Kategorien vorgeben | Verhindert Freitext-Antworten | Feste Liste: anfrage, beschwerde, … |
| Output-Format festlegen | Maschinell verarbeitbar | „Antworte NUR als JSON" |
| Sprache spezifizieren | Vermeidet Sprachwechsel | „Antworte auf Deutsch" |
| Grenzfälle behandeln | Robustheit | „Bei Unsicherheit: kategorie=‘unbekannt’" |
Tja, der System-Prompt ist eben das Herzstück jedes KI-Nodes. Ein schlechter Prompt → unzuverlässige Automatisierung. Ein guter Prompt → die KI arbeitet so präzise, dass du sie fast vergisst.
Fehler, die alle machen
| Fehler | Problem | Lösung |
|---|---|---|
| Kein JSON-Output definiert | Freitext lässt sich nicht parsen | „Antworte NUR als JSON" |
| Zu viele Kategorien | KI wird ungenau ab 10+ | Maximal 7-8 Kategorien |
| Kein Kontext im Prompt | KI rät statt zu klassifizieren | Branche, Sprache, Zielgruppe angeben |
| Output nicht getestet | Workflow bricht in Produktion ab | Immer mit Testdaten prüfen |
Kosten im Blick
KI-Nodes kosten Geld — nicht bei n8n, sondern beim LLM-Provider:
| Modell | ~Kosten pro E-Mail-Klassifizierung |
|---|---|
| GPT-4o | ~$0.003 (bei ~500 Tokens) |
| GPT-4o-mini | ~$0.0003 |
| Claude Sonnet | ~$0.003 |
| Claude Haiku | ~$0.0003 |
Bei 100 E-Mails pro Tag und GPT-4o-mini: ~$0.90/Monat. Das ist ja quasi nichts. Für Klassifizierung reicht oft das kleinere Modell — Agenten und RAG in späteren Lektionen brauchen dann die größeren.
Wichtigste Erkenntnisse
- Die Basic LLM Chain ist der einfachste KI-Node: Prompt rein, Antwort raus
- Credentials werden verschlüsselt gespeichert — API-Keys sind nie im Workflow sichtbar
- Strukturierte JSON-Ausgabe ist Pflicht für zuverlässige Automatisierung
- Der System-Prompt definiert Rolle, Kategorien, Output-Format und Sprache
- Für Klassifizierung reichen günstige Modelle (GPT-4o-mini, Haiku) — ab ~$0.90/Monat für 100 Items/Tag
Nächste Lektion
Die Basic LLM Chain kann genau eine Sache: Prompt → Antwort. Aber was, wenn die KI selbst entscheiden soll, welches Tool sie nutzt? In der nächsten Lektion lernst du KI-Agenten — die können Web-Suche starten, Datenbanken abfragen und mehrere Schritte autonom verketten.
Wissenscheck
Erst das Quiz oben abschließen
Lektion abgeschlossen!