Lektion 3 15 min

Dein erster KI-Node: Die Basic LLM Chain

Verbinde n8n mit GPT-4o oder Claude und baue deine erste KI-gestützte Automatisierung: einen E-Mail-Klassifizierer mit der Basic LLM Chain.

🔄 In der letzten Lektion hast du die Grundlagen gelernt: Nodes, Trigger, Datenfluss. Du hast sogar deinen ersten Workflow gebaut — Webhook rein, JSON raus. Aber der Workflow hat nur statische Daten weitergegeben. Jetzt wird’s intelligent.

Was du lernst

Am Ende dieser Lektion hast du einen funktionierenden KI-Workflow: einen E-Mail-Klassifizierer, der eingehende Nachrichten automatisch nach Kategorie und Priorität sortiert — mit der Basic LLM Chain.

Die Basic LLM Chain: Der einfachste KI-Node

Die Basic LLM Chain ist dein Einstieg in KI mit n8n. Sie macht genau eine Sache: Nimmt einen Prompt, schickt ihn an ein Sprachmodell und gibt die Antwort weiter. Kein Schnickschnack, keine Agenten-Logik — einfach Prompt rein, Antwort raus.

Aufbau:

  1. System-Prompt — Definiert, was die KI tun soll (ihre „Rolle")
  2. LLM-Provider — Welches Modell genutzt wird (GPT-4o, Claude, Gemini)
  3. Input — Die Daten aus dem vorherigen Node (z.B. E-Mail-Text)
  4. Output — Die KI-Antwort als JSON

Na gut, das klingt simpel. Ist es auch — und genau das ist der Punkt. Die meisten KI-Automatisierungen brauchen keinen Agenten. Eine gut konfigurierte LLM Chain reicht für 80% der Anwendungsfälle.

Quick Check: Wann brauchst du eine Basic LLM Chain statt eines AI Agents? (Wenn deine Aufgabe klar definiert ist: Input → KI-Verarbeitung → Output. Klassifizierung, Zusammenfassung, Übersetzung, Datenextraktion — alles LLM-Chain-Aufgaben. Agenten brauchst du erst, wenn die KI selbst entscheiden muss, welche Tools sie nutzt.)

Credentials einrichten

Bevor du den KI-Node nutzen kannst, brauchst du einen API-Key:

OpenAI (GPT-4o):

  1. Geh zu platform.openai.com → API Keys → „Create new secret key"
  2. In n8n: Settings → Credentials → „Add Credential"
  3. Suche nach „OpenAI" → füge deinen Key ein
  4. Speichern

Anthropic (Claude):

  1. console.anthropic.com → API Keys → „Create Key"
  2. In n8n: Credential für „Anthropic" anlegen
  3. Key einfügen, speichern

Wichtig: n8n speichert Credentials verschlüsselt. Der Key ist nie im Workflow sichtbar. Bei Self-Hosting liegt die Verschlüsselung unter deiner Kontrolle — noch ein DSGVO-Vorteil.

Praxis: E-Mail-Klassifizierer bauen

Lass uns einen Workflow bauen, der eingehende E-Mails automatisch klassifiziert. Das ist einer der häufigsten KI-Automationsuse-Cases — und ein perfekter Einstieg.

Schritt 1: Trigger

Nutze den Gmail Trigger (oder Email Trigger):

  • Event: „New Email"
  • Label: „INBOX"
  • Poll-Intervall: alle 5 Minuten

Der Trigger gibt dir JSON mit from, subject, body, date.

Schritt 2: Basic LLM Chain hinzufügen

  1. Klicke rechts vom Trigger auf „+"
  2. Suche nach „Basic LLM Chain"
  3. Verbinde den Node

Schritt 3: LLM-Provider verbinden

  1. Klicke auf den Basic LLM Chain Node
  2. Im Bereich „Model": Wähle „OpenAI Chat Model" (oder Anthropic)
  3. Wähle dein Credential aus
  4. Modell: GPT-4o (oder claude-sonnet-4-6)

Schritt 4: System-Prompt definieren

Das ist der entscheidende Teil. Dein Prompt bestimmt, wie gut die Klassifizierung funktioniert:

Du bist ein E-Mail-Klassifizierer für ein deutsches Unternehmen.

Klassifiziere die eingehende E-Mail nach:

1. KATEGORIE (genau eine):
   - anfrage: Allgemeine Frage oder Informationsanfrage
   - beschwerde: Unzufriedenheit, Problem, Reklamation
   - bestellung: Bestellung, Auftrag, Kaufinteresse
   - rechnung: Rechnung, Zahlung, Mahnung
   - bewerbung: Stellenbewerbung, Initiativbewerbung
   - intern: Interne Kommunikation, Teamabstimmung
   - spam: Werbung, Phishing, irrelevant

2. PRIORITAET: hoch | mittel | niedrig

3. ZUSAMMENFASSUNG: Maximal 1 Satz

Antworte NUR als JSON:
{"kategorie": "...", "prioritaet": "...", "zusammenfassung": "..."}

Schritt 5: Input konfigurieren

Im „Prompt"-Feld der LLM Chain referenzierst du die E-Mail-Daten:

Von: {{ $json.from }}
Betreff: {{ $json.subject }}
Text: {{ $json.body }}

Schritt 6: Output verarbeiten

Die LLM Chain gibt dir JSON zurück. Füge einen IF-Node hinzu:

  • Bedingung: {{ $json.text }} enthält "hoch"
  • True-Branch → Slack-Benachrichtigung (dringende E-Mail!)
  • False-Branch → Label in Gmail setzen

Quick Check: Warum definiert der System-Prompt „Antworte NUR als JSON"? (Weil nachfolgende Nodes die Ausgabe programmatisch verarbeiten müssen. Ein IF-Node kann {"prioritaet": "hoch"} auswerten, aber „Die E-Mail scheint dringend zu sein" nicht zuverlässig.)

System-Prompt Best Practices

RegelWarumBeispiel
Rolle definierenFokussiert die KI„Du bist ein E-Mail-Klassifizierer"
Kategorien vorgebenVerhindert Freitext-AntwortenFeste Liste: anfrage, beschwerde, …
Output-Format festlegenMaschinell verarbeitbar„Antworte NUR als JSON"
Sprache spezifizierenVermeidet Sprachwechsel„Antworte auf Deutsch"
Grenzfälle behandelnRobustheit„Bei Unsicherheit: kategorie=‘unbekannt’"

Tja, der System-Prompt ist eben das Herzstück jedes KI-Nodes. Ein schlechter Prompt → unzuverlässige Automatisierung. Ein guter Prompt → die KI arbeitet so präzise, dass du sie fast vergisst.

Fehler, die alle machen

FehlerProblemLösung
Kein JSON-Output definiertFreitext lässt sich nicht parsen„Antworte NUR als JSON"
Zu viele KategorienKI wird ungenau ab 10+Maximal 7-8 Kategorien
Kein Kontext im PromptKI rät statt zu klassifizierenBranche, Sprache, Zielgruppe angeben
Output nicht getestetWorkflow bricht in Produktion abImmer mit Testdaten prüfen

Kosten im Blick

KI-Nodes kosten Geld — nicht bei n8n, sondern beim LLM-Provider:

Modell~Kosten pro E-Mail-Klassifizierung
GPT-4o~$0.003 (bei ~500 Tokens)
GPT-4o-mini~$0.0003
Claude Sonnet~$0.003
Claude Haiku~$0.0003

Bei 100 E-Mails pro Tag und GPT-4o-mini: ~$0.90/Monat. Das ist ja quasi nichts. Für Klassifizierung reicht oft das kleinere Modell — Agenten und RAG in späteren Lektionen brauchen dann die größeren.

Wichtigste Erkenntnisse

  • Die Basic LLM Chain ist der einfachste KI-Node: Prompt rein, Antwort raus
  • Credentials werden verschlüsselt gespeichert — API-Keys sind nie im Workflow sichtbar
  • Strukturierte JSON-Ausgabe ist Pflicht für zuverlässige Automatisierung
  • Der System-Prompt definiert Rolle, Kategorien, Output-Format und Sprache
  • Für Klassifizierung reichen günstige Modelle (GPT-4o-mini, Haiku) — ab ~$0.90/Monat für 100 Items/Tag

Nächste Lektion

Die Basic LLM Chain kann genau eine Sache: Prompt → Antwort. Aber was, wenn die KI selbst entscheiden soll, welches Tool sie nutzt? In der nächsten Lektion lernst du KI-Agenten — die können Web-Suche starten, Datenbanken abfragen und mehrere Schritte autonom verketten.

Wissenscheck

1. Was macht die Basic LLM Chain in n8n?

2. Warum solltest du in deinem System-Prompt die gewünschte Ausgabe als JSON definieren?

3. Was ist ein Credential in n8n?

Beantworte alle Fragen zum Prüfen

Erst das Quiz oben abschließen

Passende Skills