KI-Agenten: Tools, Prompts und Entscheidungen
Baue einen KI-Agenten in n8n, der eigenständig Tools aufruft, Web-Suche nutzt und mehrstufige Aufgaben löst — visuell, ohne Code.
🔄 In der letzten Lektion hast du mit der Basic LLM Chain deinen ersten KI-Workflow gebaut — einen E-Mail-Klassifizierer. Die Chain kann genau eine Sache: Prompt rein, Antwort raus. Das reicht für viele Aufgaben. Aber manchmal muss die KI selbst entscheiden, was als nächstes passiert.
Was du lernst
Am Ende dieser Lektion baust du einen KI-Agenten, der eigenständig Tools aufruft — Web-Suche, Wikipedia, Code-Ausführung — und mehrstufige Recherche-Aufgaben autonom löst.
LLM Chain vs. Agent: Der Unterschied
| Basic LLM Chain | AI Agent | |
|---|---|---|
| Ablauf | Linear: Input → Prompt → Output | Dynamisch: Agent entscheidet pro Schritt |
| Tools | Keine | Ja — Web-Suche, DB, Code, APIs |
| Schritte | 1 | Mehrere (autonom verkettet) |
| Entscheidung | Du definierst den Ablauf | Der Agent entscheidet den Ablauf |
| Einsatz | Klassifizierung, Zusammenfassung | Recherche, Analyse, komplexe Aufgaben |
Faustregel: Wenn du den genauen Ablauf vorher kennst → LLM Chain. Wenn die KI je nach Situation unterschiedliche Schritte braucht → Agent.
✅ Quick Check: Wann brauchst du einen Agenten statt einer LLM Chain? (Wenn die Aufgabe nicht in einem Prompt-Aufruf lösbar ist — z.B. „Recherchiere Firma X, finde den CEO, prüfe den letzten Quartalsbericht und fasse zusammen." Der Agent entscheidet selbst: erst Web-Suche, dann Wikipedia, dann Zusammenfassung.)
Der AI Agent Node in n8n
Der AI Agent Node ist n8n’s Implementation eines LangChain-Agenten. Er hat vier Bausteine:
AI Agent Node
├── LLM (Sprachmodell) — das „Gehirn"
├── System-Prompt — die „Persönlichkeit"
├── Tools — die „Werkzeuge"
└── Memory (optional) — das „Gedächtnis"
Du konfigurierst jeden Baustein separat. Das LLM trifft die Entscheidungen, die Tools führen Aktionen aus, und der System-Prompt definiert, wie der Agent sich verhält.
Praxis: Recherche-Agent bauen
Lass uns einen Agenten bauen, der eine Firma recherchiert — mit Web-Suche und Wikipedia.
Schritt 1: Chat Trigger
Starte mit einem Chat Trigger — der gibt dir ein Chat-Interface direkt in n8n. Perfekt zum Testen.
Schritt 2: AI Agent Node
- Füge den „AI Agent" Node hinzu
- Verbinde ihn mit dem Chat Trigger
Schritt 3: LLM verbinden
- Klicke auf „Model" im Agent Node
- Wähle „OpenAI Chat Model"
- Modell: GPT-4o (oder Claude Sonnet)
- Credential auswählen
Schritt 4: System-Prompt schreiben
Du bist ein Recherche-Assistent für ein deutsches Unternehmen.
Deine Aufgabe: Recherchiere Informationen zu Firmen, Personen
oder Themen und erstelle eine strukturierte Zusammenfassung.
REGELN:
1. Nutze die Web-Suche für aktuelle Informationen
2. Nutze Wikipedia für Hintergrund und Kontext
3. Antworte IMMER auf Deutsch
4. Nenne deine Quellen
5. Wenn du unsicher bist, sag es ehrlich
FORMAT:
## Zusammenfassung
[2-3 Sätze Überblick]
## Details
[Wichtigste Fakten als Bullet Points]
## Quellen
[Genutzte Quellen auflisten]
Schritt 5: Tools hinzufügen
Klicke im Agent Node auf „Tool" und füge hinzu:
Tool 1: HTTP Request (Web-Suche)
- Nutze den SerpAPI-Node oder einen HTTP Request an eine Such-API
- Beschreibung: „Sucht das Web nach aktuellen Informationen zu einem Thema. Nutze dieses Tool für aktuelle Nachrichten, Firmendaten und Fakten."
Tool 2: Wikipedia
- n8n hat einen eingebauten Wikipedia-Node
- Beschreibung: „Sucht Wikipedia nach Hintergrund-Informationen und Kontext. Nutze dieses Tool für Definitionen, historische Daten und enzyklopädisches Wissen."
Tool 3: Code (optional)
- Code-Node für Berechnungen
- Beschreibung: „Führt JavaScript-Code aus. Nutze dieses Tool für Berechnungen, Datenformatierung oder Konvertierungen."
Schritt 6: Testen
Öffne den Chat im n8n-Interface und frage:
„Recherchiere die Firma n8n GmbH. Wann wurde sie gegründet, wer ist der Gründer, wie viel Funding haben sie bekommen?"
Der Agent wird:
- Web-Suche starten → aktuelle Infos finden
- Wikipedia konsultieren → Hintergrund prüfen
- Zusammenfassung erstellen → strukturiert antworten
Du kannst in der Execution History jeden einzelnen Tool-Aufruf nachverfolgen. Das ist halt das Schöne an n8n — du siehst genau, was der Agent tut.
✅ Quick Check: Was siehst du in der Execution History eines Agenten? (Jeden einzelnen Schritt: welches Tool aufgerufen wurde, mit welchem Input, was zurückkam, und wie der Agent die Information weiterverarbeitet hat. Komplett transparent — keine Black Box.)
Tool-Design: Die Kunst der Beschreibung
Der Agent entscheidet anhand der Tool-Beschreibungen, wann er welches Tool nutzt. Gute Beschreibungen sind der Unterschied zwischen einem hilfreichen und einem frustrierenden Agenten.
Schlechte Beschreibung:
„Sucht Dinge im Internet"
Gute Beschreibung:
„Sucht das Web nach aktuellen Informationen. Nutze dieses Tool für: Firmendaten, aktuelle Nachrichten, Preise, Veranstaltungen. NICHT nutzen für: historische Fakten (dafür Wikipedia), Berechnungen (dafür Code-Tool)."
| Element | Warum wichtig |
|---|---|
| Was das Tool tut | Agent versteht die Funktion |
| Wann nutzen | Agent weiß, wann es passt |
| Wann NICHT nutzen | Verhindert falsche Aufrufe |
| Input-Format | Agent sendet korrekte Daten |
Agent-Loops und Sicherheit
Agenten können in Loops geraten — sie rufen dasselbe Tool immer wieder auf, ohne Ergebnis. So verhinderst du das:
Max-Iterations begrenzen:
- Standardmäßig: 10 Iterationen
- Für die meisten Aufgaben reichen 5-7
- Setze ein Maximum, das zur Aufgabe passt
Timeout konfigurieren:
- Workflow-Timeout in n8n: z.B. 120 Sekunden
- Verhindert endlose Agent-Schleifen
- Besser ein Timeout-Fehler als eine $50-API-Rechnung
Kosten im Blick:
- Jeder Tool-Aufruf = ein LLM-Call
- Ein Agent mit 5 Tool-Aufrufen kostet ~5x so viel wie eine LLM Chain
- GPT-4o-mini oder Haiku für einfache Agenten nutzen
Wichtigste Erkenntnisse
- KI-Agenten entscheiden eigenständig, welche Tools sie nutzen — im Gegensatz zur linearen LLM Chain
- Der AI Agent Node hat vier Bausteine: LLM, System-Prompt, Tools und optional Memory
- Tool-Beschreibungen sind entscheidend — der Agent wählt Tools basierend auf deren Beschreibung
- 3-7 Tools pro Agent sind optimal — mehr verwirrt das LLM
- Max-Iterations und Timeouts schützen vor endlosen Loops und hohen Kosten
- Die Execution History zeigt jeden Agenten-Schritt transparent an
Nächste Lektion
Dein Agent kann Tools nutzen und Entscheidungen treffen. Aber nach jedem Chat vergisst er alles. In der nächsten Lektion gibst du ihm ein Gedächtnis — persistenten Memory mit PostgreSQL und Redis, damit der Agent sich an vorherige Konversationen erinnert.
Wissenscheck
Erst das Quiz oben abschließen
Lektion abgeschlossen!