KI erfindet Dinge? So stoppst du Halluzinationen

KI behauptet mit voller Überzeugung Sachen, die nicht stimmen. Hier erfährst du, warum das passiert – und 7 Techniken, die Halluzinationen nachweislich um bis zu 68% reduzieren.

Eben ist es wieder passiert.

Die KI hat dir was komplett Falsches gesagt. Mit totaler Überzeugung. Eine Studie zitiert, die es nicht gibt. Eine Statistik erfunden. Ein Zitat ausgedacht.

Willkommen im Club. Das nennt sich Halluzination – und es ist einer der nervigsten Aspekte beim Arbeiten mit KI.

Die schlechte Nachricht: Du kannst es nicht komplett eliminieren. KI generiert Text, indem sie vorhersagt, was sich richtig anfühlt, nicht indem sie Fakten überprüft.

Die gute Nachricht: Du kannst es drastisch reduzieren. Eine 2025-Studie in npj Digital Medicine zeigte, dass einfache Prompt-Techniken Halluzinationsraten bei GPT-4o von 53% auf 23% senkten. RAG-Systeme (Retrieval-Augmented Generation) reduzieren Halluzinationen sogar um 54-68%.

Die besten Modelle kommen mittlerweile auf unter 1% Halluzinationsrate. Aber: Das durchschnittliche Modell halluziniert immer noch bei etwa 9% der Fragen.

Hier sind die Techniken, die wirklich funktionieren.


Warum KI überhaupt halluziniert

Ein OpenAI-Research-Paper von September 2025 bringt es auf den Punkt: Sprachmodelle werden darauf trainiert, selbstbewusst zu antworten – nicht darauf, Unsicherheit zuzugeben.

Das Modell sagt lieber selbstbewusst was Falsches, als zuzugeben, dass es nicht weiß. Denn in den Trainingsdaten wurden sichere Antworten belohnt, Unsicherheit nicht.

Deshalb halluziniert KI mehr wenn:

  • Das Thema obskur oder neu ist (weniger Trainingsdaten)
  • Du um spezifische Details fragst (Daten, Zahlen, Namen)
  • Die Frage mehrdeutig ist
  • Du sie drängst zu antworten, obwohl sie unsicher ist

Fun Fact: Knowledge-Worker verbringen durchschnittlich 4,3 Stunden pro Woche damit, KI-Outputs zu fact-checken. Das ist fast ein halber Arbeitstag.


Technik 1: Erlaub ihr, „Ich weiß nicht" zu sagen

KI liefert standardmäßig eine Antwort, auch wenn sie das nicht sollte. Sag ihr explizit, dass Unsicherheit okay ist.

Füg das zu deinem Prompt hinzu:

Wenn du dir bei etwas nicht sicher bist, sag es.
Es ist besser, „Ich bin mir nicht sicher" zu sagen als zu raten.
Ich hab lieber keine Antwort als eine falsche.

Diese einfache Ergänzung ändert den Anreiz. Statt „gib eine Antwort" optimiert KI jetzt auf „gib eine genaue Antwort oder gib Unsicherheit zu."

Neuere Trainingsansätze wie „Rewarding Doubt" (2025) bauen genau das in die Modelle ein. Aber bis alle Modelle das integriert haben, musst du es halt im Prompt sagen.


Technik 2: Fordere Quellen und Zitate ein

Wenn KI ihre Quellen zitieren muss, ist sie vorsichtiger bei Behauptungen.

Für Dokumente:

Beantworte diese Frage nur basierend auf dem Dokument,
das ich dir gegeben habe. Zitiere die spezifischen Passagen,
die deine Antwort unterstützen. Wenn das Dokument die
Information nicht enthält, sag das.

Für allgemeines Wissen:

Erklär X. Für spezifische Behauptungen, vermerke, ob du
dir der Information sicher bist oder ob sie verifiziert
werden sollte.

Das Zitieren zwingt KI, Antworten in was Konkretem zu verankern, statt plausibel klingende Sachen zu erfinden.


Technik 3: Zerlege komplexe Fragen

KI halluziniert mehr bei komplexen, mehrteiligen Fragen. Das Modell versucht, alles auf einmal zu handhaben und füllt Lücken mit Guesswork.

Anstatt:

Erzähl mir von der Geschichte, den Hauptfunktionen, der
Preisgestaltung und Kundenbewertungen von ProductX, und
vergleiche es mit ProductY und ProductZ.

Versuch:

Lass uns das Schritt für Schritt durchgehen.
Zuerst: Welche sind die Hauptfunktionen von ProductX?

Dann folg mit separaten Fragen für jeden Teil. Du bekommst genauere Antworten und erkennst Fehler früher.


Technik 4: Nutze Chain-of-Thought Prompting

Wenn du KI bittest, ihr Denken zu zeigen, verbessert sich die Genauigkeit bei Aufgaben, die Logik erfordern.

Füg hinzu:

Denk das Schritt für Schritt durch, bevor du deine finale
Antwort gibst. Zeig dein Denken.

Wenn KI jeden Schritt artikulieren muss, fängt sie ihre eigenen Fehler. Halluzinationen passieren oft, wenn KI Schritte überspringt und zu Schlussfolgerungen springt.

Allerdings: Eine Wharton-Studie von Juni 2025 zeigt, dass Chain-of-Thought bei moderneren „Reasoning-Modellen" (wie o3-mini) nur noch 2,9-3,1% Verbesserung bringt – bei 20-80% längerer Antwortzeit. Bei älteren Modellen ist der Effekt größer.


Technik 5: Begrenze den Umfang

Je breiter die Frage, desto mehr Platz für Halluzinationen. Mach sie enger.

Breit (riskant):

Erzähl mir von Machine Learning.

Eng (sicherer):

Erklär den Unterschied zwischen überwachtem und
unüberwachtem Lernen. Halte es auf 3-4 Sätze.
Konzentriere dich auf die Kernunterscheidung.

Kürzere, fokussierte Antworten geben KI weniger Gelegenheit, sich in unsicheres Territorium zu begeben.


Technik 6: Stelle Referenzmaterial bereit

Wenn du KI mit spezifischen Infos arbeiten lässt, gib ihr diese Information. Verlasse dich nicht darauf, was sie „weiß."

Für faktische Aufgaben:

Hier ist die Produktdokumentation:
[Dokumentation einfügen]

Beantworte basierend nur auf dieser Dokumentation
die Frage des Kunden: [Frage]

Füg keine Information hinzu, die nicht in der
Dokumentation steht.

Das ist im Grunde manuelles RAG (Retrieval-Augmented Generation) – und Forschung zeigt, dass RAG Halluzinationen um 54-68% reduziert.


Technik 7: Fordere Selbstüberprüfung ein

Das ist überraschend effektiv. Nachdem KI eine Antwort gibt, fordere sie auf, die Genauigkeit zu prüfen.

Follow-up Prompt:

Überprüf jetzt deine Antwort. Gibt es irgendwelche
Behauptungen, die ungenau sein könnten oder bei denen
du unsicher bist? Zeig sie auf.

KI erkennt oft ihre eigenen Halluzinationen, wenn sie explizit danach gefragt wird. Dieser Selbstüberprüfungsschritt fügt eine Qualitätskontroll-Ebene hinzu.

Manche Teams nutzen sogar Multi-Modell-Validierung: Ein Agent schreibt, ein anderer fact-checkt.


Techniken kombinieren

Keine einzelne Technik eliminiert Halluzinationen. Aber wenn du sie kombinierst, vervielfacht sich der Effekt.

Prompt-Vorlage, die mehrere Techniken integriert:

Ich werde dich etwas über [Thema] fragen.

Richtlinien:
1. Nutze nur Informationen, bei denen du dir sicher bist
2. Wenn du unsicher bist, sag „Ich bin mir nicht sicher"
3. Bei spezifischen Behauptungen, vermerke dein Vertrauensniveau
4. Denk deine Antwort Schritt für Schritt durch
5. Nach deiner Antwort, vermerke kurz alle Teile, die verifiziert werden sollten

Meine Frage: [deine Frage]

Dieser Prompt:

  • Gibt Erlaubnis, Unsicherheit auszudrücken (Technik 1)
  • Fragt nach Vertrauensniveaus (Technik 2)
  • Ermutigt zum Schritt-für-Schritt-Denken (Technik 4)
  • Beinhaltet Selbstüberprüfung (Technik 7)

Was du nicht verhindern kannst

Lass uns realistisch sein über Grenzen.

KI wird immer noch manchmal halluzinieren, besonders über:

  • Aktuelle Events (nach Training Cutoff)
  • Obskure Details (spezifische Daten, Nischen-Statistiken)
  • Technische Einzelheiten (exakte API-Parameter, Code-Syntax)
  • Zitate und Zitationen (erfindet diese oft)

76% der Unternehmen nutzen mittlerweile Human-in-the-Loop Prozesse, um Halluzinationen vor dem Deployment zu fangen.

Für alles, wo Genauigkeit kritisch ist:

  • Verifiziere unabhängig
  • Verlasse dich nicht auf KI für Zitationen ohne sie zu prüfen
  • Nutze KI für Entwürfe und Ideen, nicht für endgültige Fakten

Die Verifikations-Mentalität

Die ultimative Lösung ist nicht eine Prompt-Technik – es ist eine Mentalitätsänderung.

Behandle KI-Output als ersten Entwurf, der Überprüfung braucht, nicht als fertige Antwort. Nutze KI um:

  • Schnell Ideen zu generieren
  • Inhalte zu entwerfen, die du überprüfst
  • Möglichkeiten zu erkunden
  • Material zusammenzufassen, das du bereitgestellt hast

Nutze KI nicht als Orakel, das Dinge weiß, die du nicht weißt. Es sagt vorher, was sich richtig anfühlt. Manchmal liegt es halt daneben.

Vertrau, aber verifizier.


Schnellreferenz: Die 7 Techniken

TechnikWas du machstWirkung
1. Erlaub „Ich weiß nicht"Explizit sagen, dass Unsicherheit okay istHoch
2. Fordere QuellenZitate und Referenzen verlangenHoch
3. Zerlege FragenEinen Teil nach dem anderenMittel
4. Chain-of-Thought„Denk Schritt für Schritt"Mittel-Hoch
5. Begrenze UmfangEngere Fragen, kürzere AntwortenMittel
6. Gib ReferenzmaterialFakten zum Arbeiten liefernSehr hoch
7. SelbstüberprüfungKI ihre eigene Antwort prüfen lassenMittel

Nutze sie einzeln für schnelle Verbesserungen. Kombiniere sie für maximale Zuverlässigkeit.


Willst du Prompts, die Halluzinationen minimieren? Stöber durch unsere Research-Skills und Fakten-Check-Prompts – alles kostenlos und one-click copy.