Lektion 4 15 min

KI-Agenten: Tools, Prompts und Entscheidungen

Baue einen KI-Agenten in n8n, der eigenständig Tools aufruft, Web-Suche nutzt und mehrstufige Aufgaben löst — visuell, ohne Code.

🔄 In der letzten Lektion hast du mit der Basic LLM Chain deinen ersten KI-Workflow gebaut — einen E-Mail-Klassifizierer. Die Chain kann genau eine Sache: Prompt rein, Antwort raus. Das reicht für viele Aufgaben. Aber manchmal muss die KI selbst entscheiden, was als nächstes passiert.

Was du lernst

Am Ende dieser Lektion baust du einen KI-Agenten, der eigenständig Tools aufruft — Web-Suche, Wikipedia, Code-Ausführung — und mehrstufige Recherche-Aufgaben autonom löst.

LLM Chain vs. Agent: Der Unterschied

Basic LLM ChainAI Agent
AblaufLinear: Input → Prompt → OutputDynamisch: Agent entscheidet pro Schritt
ToolsKeineJa — Web-Suche, DB, Code, APIs
Schritte1Mehrere (autonom verkettet)
EntscheidungDu definierst den AblaufDer Agent entscheidet den Ablauf
EinsatzKlassifizierung, ZusammenfassungRecherche, Analyse, komplexe Aufgaben

Faustregel: Wenn du den genauen Ablauf vorher kennst → LLM Chain. Wenn die KI je nach Situation unterschiedliche Schritte braucht → Agent.

Quick Check: Wann brauchst du einen Agenten statt einer LLM Chain? (Wenn die Aufgabe nicht in einem Prompt-Aufruf lösbar ist — z.B. „Recherchiere Firma X, finde den CEO, prüfe den letzten Quartalsbericht und fasse zusammen." Der Agent entscheidet selbst: erst Web-Suche, dann Wikipedia, dann Zusammenfassung.)

Der AI Agent Node in n8n

Der AI Agent Node ist n8n’s Implementation eines LangChain-Agenten. Er hat vier Bausteine:

AI Agent Node
├── LLM (Sprachmodell) — das „Gehirn"
├── System-Prompt — die „Persönlichkeit"
├── Tools — die „Werkzeuge"
└── Memory (optional) — das „Gedächtnis"

Du konfigurierst jeden Baustein separat. Das LLM trifft die Entscheidungen, die Tools führen Aktionen aus, und der System-Prompt definiert, wie der Agent sich verhält.

Praxis: Recherche-Agent bauen

Lass uns einen Agenten bauen, der eine Firma recherchiert — mit Web-Suche und Wikipedia.

Schritt 1: Chat Trigger

Starte mit einem Chat Trigger — der gibt dir ein Chat-Interface direkt in n8n. Perfekt zum Testen.

Schritt 2: AI Agent Node

  1. Füge den „AI Agent" Node hinzu
  2. Verbinde ihn mit dem Chat Trigger

Schritt 3: LLM verbinden

  1. Klicke auf „Model" im Agent Node
  2. Wähle „OpenAI Chat Model"
  3. Modell: GPT-4o (oder Claude Sonnet)
  4. Credential auswählen

Schritt 4: System-Prompt schreiben

Du bist ein Recherche-Assistent für ein deutsches Unternehmen.

Deine Aufgabe: Recherchiere Informationen zu Firmen, Personen
oder Themen und erstelle eine strukturierte Zusammenfassung.

REGELN:
1. Nutze die Web-Suche für aktuelle Informationen
2. Nutze Wikipedia für Hintergrund und Kontext
3. Antworte IMMER auf Deutsch
4. Nenne deine Quellen
5. Wenn du unsicher bist, sag es ehrlich

FORMAT:
## Zusammenfassung
[2-3 Sätze Überblick]

## Details
[Wichtigste Fakten als Bullet Points]

## Quellen
[Genutzte Quellen auflisten]

Schritt 5: Tools hinzufügen

Klicke im Agent Node auf „Tool" und füge hinzu:

Tool 1: HTTP Request (Web-Suche)

  • Nutze den SerpAPI-Node oder einen HTTP Request an eine Such-API
  • Beschreibung: „Sucht das Web nach aktuellen Informationen zu einem Thema. Nutze dieses Tool für aktuelle Nachrichten, Firmendaten und Fakten."

Tool 2: Wikipedia

  • n8n hat einen eingebauten Wikipedia-Node
  • Beschreibung: „Sucht Wikipedia nach Hintergrund-Informationen und Kontext. Nutze dieses Tool für Definitionen, historische Daten und enzyklopädisches Wissen."

Tool 3: Code (optional)

  • Code-Node für Berechnungen
  • Beschreibung: „Führt JavaScript-Code aus. Nutze dieses Tool für Berechnungen, Datenformatierung oder Konvertierungen."

Schritt 6: Testen

Öffne den Chat im n8n-Interface und frage:

„Recherchiere die Firma n8n GmbH. Wann wurde sie gegründet, wer ist der Gründer, wie viel Funding haben sie bekommen?"

Der Agent wird:

  1. Web-Suche starten → aktuelle Infos finden
  2. Wikipedia konsultieren → Hintergrund prüfen
  3. Zusammenfassung erstellen → strukturiert antworten

Du kannst in der Execution History jeden einzelnen Tool-Aufruf nachverfolgen. Das ist halt das Schöne an n8n — du siehst genau, was der Agent tut.

Quick Check: Was siehst du in der Execution History eines Agenten? (Jeden einzelnen Schritt: welches Tool aufgerufen wurde, mit welchem Input, was zurückkam, und wie der Agent die Information weiterverarbeitet hat. Komplett transparent — keine Black Box.)

Tool-Design: Die Kunst der Beschreibung

Der Agent entscheidet anhand der Tool-Beschreibungen, wann er welches Tool nutzt. Gute Beschreibungen sind der Unterschied zwischen einem hilfreichen und einem frustrierenden Agenten.

Schlechte Beschreibung:

„Sucht Dinge im Internet"

Gute Beschreibung:

„Sucht das Web nach aktuellen Informationen. Nutze dieses Tool für: Firmendaten, aktuelle Nachrichten, Preise, Veranstaltungen. NICHT nutzen für: historische Fakten (dafür Wikipedia), Berechnungen (dafür Code-Tool)."

ElementWarum wichtig
Was das Tool tutAgent versteht die Funktion
Wann nutzenAgent weiß, wann es passt
Wann NICHT nutzenVerhindert falsche Aufrufe
Input-FormatAgent sendet korrekte Daten

Agent-Loops und Sicherheit

Agenten können in Loops geraten — sie rufen dasselbe Tool immer wieder auf, ohne Ergebnis. So verhinderst du das:

Max-Iterations begrenzen:

  • Standardmäßig: 10 Iterationen
  • Für die meisten Aufgaben reichen 5-7
  • Setze ein Maximum, das zur Aufgabe passt

Timeout konfigurieren:

  • Workflow-Timeout in n8n: z.B. 120 Sekunden
  • Verhindert endlose Agent-Schleifen
  • Besser ein Timeout-Fehler als eine $50-API-Rechnung

Kosten im Blick:

  • Jeder Tool-Aufruf = ein LLM-Call
  • Ein Agent mit 5 Tool-Aufrufen kostet ~5x so viel wie eine LLM Chain
  • GPT-4o-mini oder Haiku für einfache Agenten nutzen

Wichtigste Erkenntnisse

  • KI-Agenten entscheiden eigenständig, welche Tools sie nutzen — im Gegensatz zur linearen LLM Chain
  • Der AI Agent Node hat vier Bausteine: LLM, System-Prompt, Tools und optional Memory
  • Tool-Beschreibungen sind entscheidend — der Agent wählt Tools basierend auf deren Beschreibung
  • 3-7 Tools pro Agent sind optimal — mehr verwirrt das LLM
  • Max-Iterations und Timeouts schützen vor endlosen Loops und hohen Kosten
  • Die Execution History zeigt jeden Agenten-Schritt transparent an

Nächste Lektion

Dein Agent kann Tools nutzen und Entscheidungen treffen. Aber nach jedem Chat vergisst er alles. In der nächsten Lektion gibst du ihm ein Gedächtnis — persistenten Memory mit PostgreSQL und Redis, damit der Agent sich an vorherige Konversationen erinnert.

Wissenscheck

1. Was unterscheidet einen KI-Agenten von einer Basic LLM Chain?

2. Warum ist eine gute Tool-Beschreibung für den Agenten so wichtig?

3. Wie viele Tools sollte ein Agent maximal haben?

Beantworte alle Fragen zum Prüfen

Erst das Quiz oben abschließen

Passende Skills