Hier ist was mich überrascht hat, als ich das zum ersten Mal gelernt habe.
Du kannst KI deutlich smarter im Reasoning machen – nicht mit einem besseren Modell, nicht durch mehr Geld, sondern mit fünf Worten in deinem Prompt.
Diese fünf Worte? „Denk das Schritt für Schritt durch."
Diese Technik heißt Chain-of-Thought Prompting (CoT) – und sie ist eine der wertvollsten Sachen, die ich über KI-Arbeit gelernt habe.
Allerdings: Neuere Forschung zeigt, dass CoT nicht mehr der Allheilmittel ist, als das es mal galt. Lass uns ehrlich drüber reden, wann es hilft – und wann du es dir sparen kannst.
Das Problem: KI springt zu schnell zu Antworten
Standardmäßig versucht KI, direkt von der Frage zur Antwort zu springen. Du fragst eine Matheaufgabe, sie spuckt eine Zahl aus. Du fragst nach Analyse, sie gibt dir eine Schlussfolgerung.
Manchmal ist das okay. Aber für alles, das echtes Reasoning braucht – Logik-Rätsel, mehrstufige Mathe, komplexe Analyse, Debugging – führt diese Abkürzung zu Fehlern.
KI weiß eigentlich, dass sie ihre Arbeit zeigen soll. Sie macht’s halt einfach nicht. Es sei denn, du fragst.
Was Chain-of-Thought macht
Chain-of-Thought fordert die KI auf, ihren Reasoning-Prozess vor der Antwort zu zeigen.
Anstatt:
Frage → Antwort
Bekommst du:
Frage → Schritt 1 → Schritt 2 → Schritt 3 → Antwort
Diese simple Veränderung hat oft massive Effekte.
Wenn KI jeden Schritt aussprechen muss, fängt sie ihre eigenen Fehler. Sie berücksichtigt Faktoren, die sie sonst übersehen würde. Sie baut auf Antworten hin, anstatt zu raten.
Die Original-Forschung: Google Brain veröffentlichte 2022 ein wegweisendes Paper dazu. Sie fanden, dass CoT die Performance bei Arithmetic, Common-sense Reasoning und Symbolic Logic dramatisch verbesserte – ohne zusätzliches Training.
Gleiche KI. Gleiches Wissen. Viel bessere Ergebnisse. Alles nur weil man sie bat, laut zu denken.
Die einfachste Version: Zero-Shot CoT
Der einfachste Weg, Chain-of-Thought zu nutzen, ist peinlich simpel.
Füg einfach „Denk das Schritt für Schritt durch" zu deinem Prompt hinzu.
Ohne CoT:
Ein Schläger und ein Ball kosten zusammen 1,10€. Der Schläger kostet 1€ mehr als der Ball. Wie viel kostet der Ball?
KI platzt oft heraus: „0,10€" – was falsch ist.
Mit CoT:
Ein Schläger und ein Ball kosten zusammen 1,10€. Der Schläger kostet 1€ mehr als der Ball. Wie viel kostet der Ball? Denk das Schritt für Schritt durch.
Jetzt wird KI es durcharbeiten:
- Nennen wir den Ballpreis „x"
- Der Schläger kostet 1€ mehr, also ist der Schläger „x + 1€"
- Zusammen kosten sie 1,10€, also: x + (x + 1) = 1,10
- Das bedeutet 2x + 1 = 1,10
- Also 2x = 0,10
- Daher x = 0,05€
Der Ball kostet 0,05€ (und der Schläger 1,05€).
Gleiche Frage. Richtige Antwort diesmal.
Few-Shot CoT: Erst Beispiele zeigen
Für noch bessere Ergebnisse zeigst du der KI ein Beispiel des Reasonings, das du haben willst, bevor du deine Frage stellst.
Das heißt „Few-Shot" CoT – du gibst ein oder mehr ausgearbeitete Beispiele, dann fragst deine echte Frage.
Beispiel-Prompt:
Q: Roger hat 5 Tennisbälle. Er kauft 2 weitere Dosen Tennisbälle.
Jede Dose hat 3 Tennisbälle. Wie viele Tennisbälle hat er jetzt?
A: Lass mich das Schritt für Schritt durcharbeiten.
- Roger fängt mit 5 Tennisbällen an
- Er kauft 2 Dosen, jede mit 3 Bällen
- Das sind 2 × 3 = 6 neue Bälle
- Total: 5 + 6 = 11 Tennisbälle
Q: Die Kantine hatte 23 Äpfel. Sie benutzte 20 fürs Mittagessen
und kaufte 6 weitere. Wie viele Äpfel hat sie jetzt?
A:
Die KI wird jetzt dem gleichen Schritt-für-Schritt-Format folgen.
Neuere Forschung (ICLR 2025): Conversational Few-Shot Prompting – wo du Beispiele als Multi-Turn-Konversation statt als Single-Prompt strukturierst – funktioniert bei Chat-Modellen noch besser.
Wann CoT wirklich hilft
CoT ist kein Zauberstab für alles. Hier glänzt es:
Mathe und Logik
Alles mit mehreren Schritten. Word Problems, Berechnungen, logische Deduktionen.
Kalkuliere die Zinseszinsen auf 10.000€ bei 5% über 3 Jahre.
Denk jeden Jahresschritt durch.
Code Debugging
Das Verstehen von Code-Fehlern braucht Trace-durch-Execution.
Hier ist mein Code [Code einfügen]. Er gibt den falschen Output.
Geh durch, was passiert Schritt für Schritt wenn ich diese
Funktion aufrufe.
Analyse und Entscheidungsfindung
Komplexe Entscheidungen haben mehrere Faktoren. CoT hilft, sie systematisch abzuwägen.
Ich entscheide zwischen diesen drei Job-Angeboten [Details].
Denk die Pros und Cons jedes Schritt für Schritt durch,
bevor du einen empfiehlst.
Leseverständnis
Lange Dokumente mit impliziter Information brauchen sorgfältiges Reasoning.
Basierend auf diesem Vertrag [Text einfügen], bestimme wer
haftbar ist wenn die Lieferung verspätet ist. Geh die
relevanten Klauseln Schritt für Schritt durch.
Wann CoT wenig bringt (Neue Forschung 2025)
Hier wird’s interessant. Eine Wharton-Studie von Juni 2025 hat die konventionelle Weisheit hinterfragt.
Bei Reasoning-Modellen
Für Modelle mit eingebauten Reasoning-Fähigkeiten (wie o3-mini, o4-mini) bringt CoT nur noch:
- 2,9-3,1% Verbesserung in der Genauigkeit
- Bei 20-80% längerer Antwortzeit
Die Forscher schreiben: „Für Reasoning-Modelle rechtfertigen die minimalen Genauigkeitsgewinne selten die erhöhte Response-Zeit."
Bei einfachen Fakten-Fragen
„Was ist die Hauptstadt von Frankreich?" braucht kein Reasoning. CoT fügt nur unnötige Länge hinzu.
Bei kreativem Schreiben
Geschichten und Content profitieren mehr von Beispielen und Ton-Anleitung als von logischen Schritten.
CoT als „Mirage" (August 2025)
Eine weitere Studie argumentiert, dass CoT-Reasoning „eine fragile Fata Morgana ist, die verschwindet, wenn man es über die Trainingsverteilung hinaus pusht."
Mit anderen Worten: CoT hilft bei Problemen, die den Trainingsdaten ähneln. Bei wirklich neuen Problemtypen ist der Effekt begrenzt.
Die ehrliche Empfehlung
Bei älteren Modellen (GPT-3.5, Claude 2): CoT ist immer noch ein Gamechanger. Definitiv nutzen.
Bei neueren Modellen (GPT-4, Claude 3.5, Gemini 2): CoT hilft bei komplexen mehrstufigen Problemen, aber der Effekt ist kleiner als früher.
Bei Reasoning-Modellen (o1, o3, Claude mit Extended Thinking): Diese denken bereits intern durch. CoT im Prompt ist oft redundant.
Faustregel: Wenn du eine einfache Frage hast → skip CoT. Wenn du ein komplexes Problem hast, das mehrere Schritte braucht → nutze CoT. Wenn du ein Reasoning-Modell nutzt → überleg dir, ob der Zeitaufwand es wert ist.
5 Ready-to-Use CoT Prompts
Kopier diese direkt:
1. Mathe Word Problem
[Dein Problem hier]
Löse das Schritt für Schritt. Zeig deine Arbeit für jede
Berechnung bevor du die finale Antwort gibst.
2. Debugging Hilfe
Hier ist mein Code:
[Code einfügen]
Hier ist der Error:
[Error einfügen]
Geh durch was der Code macht Schritt für Schritt,
identifiziere wo er falsch läuft, dann erklär den Fix.
3. Entscheidungs-Analyse
Ich muss zwischen entscheiden: [Option A] und [Option B]
Kontext: [deine Situation]
Analysiere das Schritt für Schritt:
1. Liste die Pros und Cons jeder Option
2. Berücksichtige meine spezifische Situation
3. Identifiziere die Key Tradeoffs
4. Mach eine Empfehlung mit Reasoning
4. Dokument-Analyse
Basierend auf diesem Dokument:
[Dokument einfügen]
Beantworte diese Frage: [deine Frage]
Geh durch die relevanten Sektionen Schritt für Schritt bevor
du deine finale Antwort gibst. Zitiere spezifische Passagen
die deine Schlussfolgerung unterstützen.
5. Komplexe Erklärung
Erklär [komplexes Thema] jemandem der [ihr Hintergrund] versteht.
Brich das Schritt für Schritt herunter:
1. Fang mit was sie schon wissen an
2. Bau bis zum neuen Konzept auf
3. Benutz Analogien wo hilfreich
4. Ende damit, wie es alles verbindet
Advanced: Self-Consistency
Für High-Stakes Probleme gibt’s eine sophistiziertere Technik: Self-Consistency.
Anstatt nur eine Reasoning Chain zu generieren, fragst du KI das Problem mehrfach zu lösen (mit etwas Randomness) und nimmst dann die häufigste Antwort.
Es ist wie fünf Experten unabhängig ein Problem durcharbeiten zu lassen. Wenn vier dieselbe Schlussfolgerung erreichen, ist das wahrscheinlich richtig.
In der Praxis: Schick denselben Prompt 3-5 mal mit Temperature > 0, sammle die Antworten, und schau welche am häufigsten vorkommt.
Das Fazit
Chain-of-Thought Prompting ist eine der einfachsten Techniken, die echten Impact haben kann. Aber es ist kein Allheilmittel mehr.
Die Realität 2026:
- Bei älteren oder günstigeren Modellen → CoT ist dein Freund
- Bei neueren Frontier-Modellen → CoT hilft bei komplexen Problemen
- Bei Reasoning-Modellen → oft redundant
Nächstes Mal wenn du frustriert bist über KI’s Reasoning, probier diese Worte:
„Denk das Schritt für Schritt durch."
Manchmal macht’s den Unterschied zwischen falsch und richtig. Manchmal nicht. Aber es kostet dich nur fünf Worte, es herauszufinden.
Willst du mehr über Prompt-Techniken lernen? Schau dir unseren Prompt Engineering Beginner’s Guide an oder browse unsere Reasoning-Skills für ready-to-use Prompts.