Capstone: Baue einen vollständigen KI-Assistenten
Baue einen vollständigen KI-Assistenten in n8n: RAG + Memory + Tools + Fehlerbehandlung — alles in einem produktionsreifen Workflow.
🔄 In sieben Lektionen hast du jedes Puzzleteil einzeln gelernt: n8n-Grundlagen, LLM Chains, KI-Agenten, Memory, RAG und Produktions-Patterns. Jetzt setzt du alles zusammen — einen KI-Assistenten, der deine Dokumente kennt, sich an Gespräche erinnert, Tools nutzt und fehlertolerant in Produktion läuft.
Was du lernst
Am Ende dieser Lektion hast du einen vollständigen, produktionsreifen KI-Assistenten in n8n gebaut und verstehst, wie du die einzelnen Bausteine für verschiedene Anwendungsfälle kombinierst.
Die Architektur
Der fertige Assistent besteht aus zwei Workflows:
Workflow 1: Ingestion (läuft periodisch)
Schedule Trigger (wöchentlich)
→ Google Drive (Dokumente laden)
→ Text Splitter (Chunks)
→ Embeddings (OpenAI)
→ PGVector (speichern)
→ Slack (Bestätigung: "42 Dokumente aktualisiert")
Workflow 2: Chatbot (läuft dauerhaft)
Chat Trigger
→ AI Agent
├── LLM: GPT-4o
├── System-Prompt
├── Memory: PostgreSQL Chat Memory
└── Tools:
├── Vector Store (Wissensdatenbank)
├── HTTP Request (Web-Suche)
└── Code (Berechnungen)
→ Respond to Webhook
Schritt für Schritt: Den Assistenten bauen
Phase 1: Ingestion-Workflow
Erstelle einen neuen Workflow „KI-Assistent: Ingestion":
- Schedule Trigger: Jeden Sonntag um 02:00 (wenn niemand den Bot nutzt)
- Document Loader: Google Drive, Notion oder lokale Dateien
- Text Splitter: Chunk Size 800, Overlap 200
- Embeddings: OpenAI text-embedding-3-small
- PGVector: Collection „assistent_docs"
Tipp: Füge einen „Set"-Node hinzu, der Metadata ergänzt — Dateiname, Upload-Datum, Kategorie. Das hilft beim Filtern.
Phase 2: Basic Agent (ohne RAG)
Erstelle „KI-Assistent: Chat":
- Chat Trigger → AI Agent
- LLM: GPT-4o (oder Claude Sonnet)
- System-Prompt:
Du bist ein KI-Assistent für [dein Unternehmen/Team].
AUFGABEN:
- Beantworte Fragen basierend auf der internen Wissensdatenbank
- Recherchiere im Web, wenn die Wissensdatenbank keine Antwort hat
- Führe Berechnungen durch, wenn nötig
REGELN:
1. Antworte auf Deutsch
2. Nenne deine Quellen (intern oder Web)
3. Wenn du unsicher bist, sag es
4. Gib keine Informationen preis, die nicht in der Wissensdatenbank stehen
5. Bei sensiblen Themen: verweise an die zuständige Abteilung
FORMAT:
- Klare, strukturierte Antworten
- Bullet Points für Listen
- Quellenverweis am Ende
- Teste: „Hallo, was kannst du?" → Agent antwortet mit seinen Fähigkeiten
Phase 3: Tools hinzufügen
Füge dem Agent drei Tools hinzu:
Tool 1: Vector Store (Wissensdatenbank)
- PGVector als Agent-Tool verbinden
- Beschreibung: „Durchsucht die interne Wissensdatenbank nach Informationen zu [Unternehmen, Prozessen, Richtlinien]. Nutze dieses Tool als ERSTES für alle internen Fragen."
Tool 2: HTTP Request (Web-Suche)
- SerpAPI oder ähnlich
- Beschreibung: „Sucht das Web nach aktuellen, externen Informationen. Nutze dieses Tool NUR, wenn die Wissensdatenbank keine Antwort hat."
Tool 3: Code (Berechnungen)
- JavaScript Code Node
- Beschreibung: „Führt Berechnungen aus. Nutze dieses Tool für mathematische Operationen, Datumsberechnungen oder Datenformatierung."
Phase 4: Memory
Füge PostgreSQL Chat Memory hinzu:
- Session ID:
{{ $('Chat Trigger').item.json.sessionId }} - Context Window: 15 Nachrichten
Phase 5: Error Handling
- Retry auf dem AI Agent Node: 3 Retries mit exponentiellem Backoff
- Error-Workflow: Bei Fehler → Slack-Nachricht an den Admin
- Timeout: 120 Sekunden (LLM-Aufrufe + Tool-Calls + RAG)
✅ Quick Check: Warum hat der System-Prompt die Regel „Nutze die Wissensdatenbank als ERSTES"? (Weil der Agent sonst vielleicht direkt eine Web-Suche startet, obwohl die Antwort in deinen internen Dokumenten steht. Die Prioritätsregel spart Kosten und liefert akkuratere, unternehmensspezifische Antworten.)
Was du in diesem Kurs gelernt hast
| Lektion | Konzept | Anwendung |
|---|---|---|
| 1 | Warum n8n | Marktkontext, DACH-Vorteile |
| 2 | Nodes, Trigger, Datenfluss | Workflow-Grundlagen |
| 3 | Basic LLM Chain | E-Mail-Klassifizierung |
| 4 | KI-Agenten | Recherche-Agent mit Tools |
| 5 | Memory | Chatbot mit Gedächtnis |
| 6 | RAG | Wissensdatenbank-Abfrage |
| 7 | Produktions-Patterns | Error Handling, DSGVO, Scaling |
| 8 | Capstone | Vollständiger KI-Assistent |
5 Workflow-Ideen für den nächsten Schritt
| Workflow | Bausteine | Schwierigkeit |
|---|---|---|
| Support-Bot | Chat + RAG + Memory | ⭐⭐ |
| Bewerbungs-Screener | Gmail Trigger + LLM Chain + Sheets | ⭐⭐ |
| Meeting-Zusammenfasser | Webhook + LLM Chain + Slack | ⭐ |
| Code-Review-Agent | Webhook + Agent + GitHub-Tool | ⭐⭐⭐ |
| Marktforschungs-Agent | Schedule + Agent + RAG + E-Mail | ⭐⭐⭐ |
Checkliste: Bevor du in Produktion gehst
| Check | Status |
|---|---|
| Error Handling auf allen KI-Nodes konfiguriert? | ☐ |
| Error-Workflow mit Alerting eingerichtet? | ☐ |
| Timeouts gesetzt (120s als Standard)? | ☐ |
| Max-Iterations beim Agent begrenzt (5-7)? | ☐ |
| Session-IDs für Memory korrekt? | ☐ |
| Execution-Daten Auto-Pruning aktiviert? | ☐ |
| Credentials verschlüsselt und sicher verwahrt? | ☐ |
| DSGVO: Datenstandort dokumentiert? | ☐ |
| DSGVO: Personenbezogene Daten anonymisiert? | ☐ |
| LLM-Kosten überwacht? | ☐ |
| Workflow dokumentiert (Zweck, Architektur, Kosten)? | ☐ |
Wichtigste Erkenntnisse
- Ein produktionsreifer KI-Assistent besteht aus zwei getrennten Workflows: Ingestion (periodisch) und Chatbot (dauerhaft)
- Schrittweise aufbauen: Basic Agent → Tools → Memory → RAG → Error Handling
- Der System-Prompt definiert Prioritäten — interne Wissensdatenbank vor Web-Suche
- Dokumentation, DSGVO-Klassifizierung und Kosten-Monitoring sind keine Kür, sondern Pflicht
- n8n kombiniert visuelle Einfachheit mit produktionsreifer Tiefe — Queue Mode, Error Handling, Credential Encryption
- Die größte Stärke von n8n für den DACH-Raum: Berlin-gegründet, Frankfurt-gehostet, Self-Hosting-fähig, steuerlich absetzbar
Wissenscheck
Erst das Quiz oben abschließen
Lektion abgeschlossen!