Die Schlagzeile, die Anthropic am 6. Mai gesetzt hat, klingt erstmal nach Marketing: 6× höhere Abschlussrate bei Harvey nach Aktivierung von “Dreaming” — der neuen Funktion in Claude Managed Agents, die zwischen Sessions die Erinnerungen des Agents kuratiert. IT-Daily und IT Boltwise haben die Funktion technisch eingeordnet als “automatisiertes Verfahren zur Speicheroptimierung”, das vergangene Ereignisse aufbereitet und Muster für zukünftige Aufgaben sichert.
Eine 6×-Zahl ist immer entweder ein sehr niedriger Ausgangspunkt, ein großzügig gemessenes Metrik — oder das Feature macht tatsächlich etwas anderes als alles, was vorher da war. Bei Harvey ist es die dritte Variante. Und für jede Plattform-Team in der DACH-Region kommt damit eine konkrete Frage auf den Tisch.
Aber bevor du Research-Preview-Zugang anfragst, musst du eine Frage klären, die in der US-Berichterstattung kaum vorkommt: Erfüllt deine Agent-Architektur die DSGVO-Anforderungen, die der BfDI im Dezember 2025 für KI-Einsatz im Bundesumfeld konkretisiert hat? Die kurze Antwort vieler deutscher Plattform-Teams: noch nicht ganz. Und ohne diese Klärung ist der 6×-Multiplikator wertlos, weil das Feature dann an einer Datenschutz-Folgenabschätzung scheitert, bevor es produktiv läuft.
Was “Dreaming” technisch ist
Der Name ist poetisch, die Implementierung ist mechanisch. Drei Vorgänge passieren während eines Dreaming-Durchlaufs:
Der Curator-Pass liest vergangene Sessions. Was der Agent in den letzten N Sessions getan hat — Tool-Calls, Zwischenüberlegungen, Endergebnisse, Fehlerzustände — wird von einem separaten Prozess gelesen, dessen einziger Job es ist, Muster zu erkennen. Das ist nicht der Agent selbst, der live über sich nachdenkt. Es ist ein Kuratierungs-Pass zwischen aktiven Läufen.
Konsolidierte Erkenntnisse werden in den persistenten Speicher des Agents zurückgeschrieben. Wiederkehrende Fehler werden markiert (“nicht wieder versuchen, PDFs mit dem .doc-Handler zu lesen”). Workflows, auf die mehrere Agent-Sessions unabhängig konvergierten, werden befördert (“bei Zusammenfassungen von Rechtsschriften zuerst die Holding, dann den prozessualen Stand, dann die Fakten”). Stilpräferenzen werden kodifiziert. Veraltete Einträge werden bereinigt.
Ein Diff wird zur Inspektion vorgelegt. Anthropics Framing ist explizit: Entwickler können prüfen, was Dreaming dem Speicher hinzufügen, ändern oder entfernen will, bevor es committed wird. Auto-Apply ist optional. Die Steuerungsebene gehört dem Team.
Was Dreaming nicht ist: kontinuierliche Selbstmodifikation, autonomes Re-Architecting der Agent-Instruktionen, irgendwas, das Modellgewichte berührt. Es geht strikt um den Arbeitsspeicher des Agents — die persistenten Notizen, die der Agent zu Beginn jeder neuen Session liest.
Drei Schwester-Features wurden am gleichen Tag ausgeliefert. Outcomes ist ein zielgesteuerter Ausführungsmodus, in dem der Agent gegen ein Rubric arbeitet und ein separater Grader entscheidet, wann die Arbeit akzeptabel ist. Multi-Agent-Orchestrierung lässt einen Lead-Agent eine Aufgabe in Sub-Tasks zerlegen und an Sub-Agents mit isolierten Kontexten verteilen. Memory ist jetzt in Public Beta. Dreaming ist das einzige der vier in Research Preview — Zugang ist also auf Anfrage.
Die DSGVO-Gate vor der 6×-Frage
Hier weicht die DACH-Realität von der US-Berichterstattung ab. Computerweekly hat es im April 2026 explizit gemacht: KI-Agenten dürfen unter EU-Recht nicht unbeaufsichtigt bleiben — sowohl die KI-Verordnung als auch die DSGVO fordern menschliche Aufsicht bei autonomen Entscheidungen. Bei Agenten mit Personenbezug ist eine Datenschutz-Folgenabschätzung nach Art. 35 DSGVO in den meisten Fällen Pflicht, nicht Empfehlung.
Konkrete Compliance-Schwachstellen, die Fachpublikationen bei produktiven KI-Agenten regelmäßig finden:
- 47% der untersuchten Fälle: keine ausdrückliche, informierte Einwilligung vor der Verarbeitung personenbezogener Daten
- 39%: unbefristete Speicherung von Konversationen ohne definierte Aufbewahrungsrichtlinie
- 31%: fehlende Mechanismen zur Ausübung von DSGVO-Rechten — also kein Recht auf Löschung, keine Datenübertragbarkeit
Dreaming verschärft alle drei Probleme, wenn deine Agent-Architektur sie nicht vorher löst. Die Konsolidierung lebt davon, dass alte Sessions eingelesen werden — wenn diese Sessions personenbezogene Daten enthielten und keine klare Aufbewahrungsrichtlinie haben, hast du jetzt einen zweiten Verarbeitungszweck (das Lernen), den deine ursprüngliche Einwilligung möglicherweise nicht abdeckt.
Der BfDI hat im Dezember 2025 eine Handreichung zum datenschutzkonformen KI-Einsatz in Bundesbehörden veröffentlicht, die als Mindestbenchmark auch in der Privatwirtschaft zunehmend als Referenz herangezogen wird. Empfohlene Aufbewahrungsfristen daraus:
- 30–90 Tage für Logs ohne Kundenidentifikation
- 1–3 Jahre für Support-Gespräche mit Ticket-Verknüpfung
- Sofortige Löschung für sensible Kategorien (Art. 9 DSGVO — Gesundheit, Religion, biometrische Daten)
Bevor du Dreaming einsetzt, brauchst du diese Aufbewahrungsmatrix in deiner Agent-Pipeline. Sonst konsolidiert das Feature munter weiter — und du hast keine Antwort, wenn ein Betroffener sein Löschungsrecht geltend macht und die Erkenntnisse aus seiner Session bereits in den persistenten Speicher des Agents diffundiert sind.
Was Harveys 6× wirklich aussagt
Harvey ist eine Legal-AI-Plattform, deren Agenten Long-Form-Drafting (Schriftsätze, Anträge, M&A-Dokumente), Dokumentenerstellung und Recherche-Workflows abwickeln. Anthropics Case-Study-Sprache ist konkret: Agenten begannen, “Dateityp-Workarounds und Tool-spezifische Muster” zwischen Sessions zu erinnern. Genau das ist die Konsolidierung in Aktion: Der Agent, der montags den richtigen Weg zum Extrahieren von Text aus einem gescannten PDF neu entdecken musste, hat dieses Wissen dienstags niedergeschrieben.
Die 6× ist mit hoher Wahrscheinlichkeit eine Obergrenze, weil Harveys Workload drei Vorbedingungen erfüllt, die Dreaming maximal auszahlen lassen:
Wiederholte Workflow-Muster. Agenten arbeiten an ähnlichen Mandatstypen wiederholt. Die gleichen Korrekturen und Shortcuts tauchen über hunderte Sessions auf.
Hohe Wiederholungsfehlerquote im Ausgangszustand. Ein Frontier-Modell-Agent in einer Nischendomäne (Recht) ohne Speicher wiederholt domänenspezifische Fehler immer wieder — falsches Dateiformat, falscher Zitierstil, falsche Dokumentstruktur. Wenn Dreaming 80% davon eliminiert, schießt die Abschlussrate hoch.
Lange Session-Strukturen. Harveys Agenten arbeiten an Mandaten, die Tage oder Wochen umfassen. Persistenz ist hier hochwertig.
Wenn dein Stack nicht alle drei teilt, plane mit einem kleineren Multiplikator. Die ehrliche Verteilung für die meisten DACH-Plattform-Teams:
- 1,5× bis 3× Verbesserung der Abschlussrate auf typischen Eng-Team-Stacks (Coding-Loops, Eval-Runner, Ticket-Triage, Support-Deflection), wo Workflows sich genug wiederholen, damit Memory-Konsolidierung Signal hat — aber der Agent nicht in einer Nischendomäne wie Recht arbeitet.
- 30% bis 60% Reduktion der Kosten pro Abschluss. Das ist oft interessanter als die Abschlussrate selbst — gleiche Anzahl an Abschlüssen, aber weniger Retries und kürzere Ketten, weil der Agent aufhört, neu zu entdecken, was er schon wissen sollte.
- Unter 1,2× auf zustandslosen Workloads — Code-Review auf isolierten PRs, Einmal-Generierung, alles, wo der “Speicher” des Agents nie sinnvoll arbeitete.
ComputerBase hat im April 2026 einen Langzeittest zu Claude Code veröffentlicht, der die praktischen Möglichkeiten und Sicherheitsrisiken über Wochen analysierte — eine seltene DACH-Quelle für realistische Erwartungswerte. Die Zahlen aus deutschen Pilot-Implementierungen werden in den nächsten 30 Tagen folgen.
Die 5 Q3-Routing-Fragen für DACH-Teams
Vor Research-Preview-Anfrage — und definitiv vor Re-Architektur deines Agent-Stacks — laufe diese fünf Fragen in dieser Reihenfolge.
1. Hat dein Agent-Stack heute überhaupt eine Speicher-Schicht?
Erstaunlich viele “Agenten” in Produktion sind heute zustandslose Prompt-Ketten mit Router und ein paar Tool-Calls. Dreaming konsolidiert persistenten Speicher — wenn du keinen hast, hat Dreaming nichts zu konsolidieren.
Konkret: Liest jede Agent-Session beim Start aus einem Speicher (Vektor-DB, Key-Value-Store, strukturiertes JSON-Sidecar), in den eine vorherige Session geschrieben hat? Wenn ja, hat Dreaming einen Job. Wenn nein, ist deine Q3-Aufgabe der Aufbau der Speicher-Schicht.
Schnellster Test: Lass einen deiner Agenten zweimal mit 24-Stunden-Abstand auf eine Aufgabenfamilie laufen. Lernt er aus Lauf 1 etwas, was Lauf 2 beeinflusst?
2. Hast du eine Datenschutz-Folgenabschätzung nach Art. 35 DSGVO durchgeführt?
Diese Frage existiert in der US-Berichterstattung nicht — und sie ist die wichtigste DACH-spezifische Hürde. Wenn dein Agent personenbezogene Daten verarbeitet (und das tut er fast immer, sobald er mit Mitarbeiterdaten, Kundendaten oder externen E-Mails interagiert), ist eine DPIA in den meisten Fällen Pflicht.
Die DPIA muss explizit den zweiten Verarbeitungszweck (Memory-Konsolidierung) abdecken, der durch Dreaming entsteht. Eine DPIA, die den ursprünglichen Agent-Lauf abdeckt, aber nicht das nachgelagerte Lernen, ist unvollständig — und das wird im ersten Aufsichtsverfahren auffallen.
3. Wie hoch ist deine Wiederholungsfehlerquote?
Ziehe Eval-Suite-Traces aus den letzten 30 Tagen. Gruppiere Fehler nach Root-Cause. Welcher Prozentsatz sind Wiederholungen?
- Unter 20%: Marginale Gewinne. Verschiebung von 80% auf vielleicht 84% Abschlussrate. Mach es, aber nicht als Q3-Priorität.
- 20–40%: Sinnvolle Gewinne. Plane für 1,5×–2× Verbesserung. Pilot lohnt sich.
- Über 40%: Dreaming kombiniert mit der Tier-1-Opus-Limit-Erhöhung vom 6. Mai zu einer 2–3×-effektiven Kosten-pro-Lauf-Verbesserung. In diesem Band ist der Multiplikator groß genug, um eine partielle Re-Architektur zu rechtfertigen.
4. Bist du Anthropic-gebunden oder modell-portabel?
Dreaming ist Claude-Managed-Agents-spezifisch. Es gibt heute kein Äquivalent in OpenAIs Agent Builder oder Googles Gemini Agent Framework (und in Claude Code selbst nur die Community-Lösung grandamenium/dream-skill als manuelle Annäherung).
Wenn dein Team durch eine Modell-Routing-Schicht läuft, die zwischen Claude, GPT-5.5 und Gemini wechselt, sperrt Dreaming dich für die profitierenden Agenten in den Claude-Pfad. Das ist nicht zwingend falsch — aber eine strategische Entscheidung.
Die DACH-spezifische Variante: Wenn du aus Souveränitätsgründen Mistral oder Aleph Alpha im Mix hast, ist Dreaming kein direkter Ersatz, sondern eine zweite Spur. Plane das Routing entsprechend.
5. Kannst du Governance-by-Developer-Review skalieren?
Dreaming legt einen Diff vor. Jemand muss die relevanten Diffs prüfen — besonders bei produktionskritischen Agenten, wo ein falsch beförderter Speichereintrag Verhalten ändern könnte, das echtes Geld kostet oder Compliance bricht.
Bei 1–3 Agenten in Produktion ist Entwickler-Review jedes Diffs in Ordnung. Bei 20+ wird die Diff-Review selbst zur Q3-Ops-Aufgabe. Wer besitzt sie? Was ist das SLA?
Auto-Apply existiert nicht ohne Grund — die meisten Teams werden ihn für die Masse ihrer Agenten verwenden und manuelles Review für die Hochrisiko-Fälle reservieren. Schreibe diese Policy auf, bevor du Dreaming in Produktion ausrollst. Bei DSGVO-relevanten Agenten ist das nicht-verhandelbar: jede automatische Memory-Modifikation muss protokolliert werden, damit Betroffenenanfragen nachvollziehbar bleiben.
Drei “Zugang diese Woche anfragen”-Muster
Drei Workload-Formen, in denen die Antwort lautet: “Heute Zugang anfragen, 5-Tage-Pilot.”
Lange Coding-Agent-Loops. Cursor, Cline, Aider oder dein In-House-Äquivalent in Claude Code — Agenten, die den gleichen Codebase über Tage hinweg besuchen, dessen Konventionen lernen und Wissen wie “diese Datei hat seltsame Imports” oder “die Test-Suite hängt bei mehr als 4 parallel” akkumulieren.
Eval-Suite-Runner, die das gleiche Szenario-Set über Modellversionen hinweg testen. Dein Eval-Harness läuft die gleichen 200 Szenarien jedes Mal neu, wenn du eine Modellversion bumpst. Dreaming kann konsolidieren: “Szenario 47 ist flaky aus nicht-feature-Gründen”, “Szenario 113s erwarteter Output hat in den letzten 30 Tagen gedriftet.”
Customer-Support-Deflection-Agenten mit wiederholten FAQ-Mustern. Der Agent beantwortet die gleichen 50 Fragetypen tausendfach. Dreaming konsolidiert: “Die richtige Antwort auf Kategorie X hat sich verschoben”, “Der neue Produktstart hat FAQ #14 obsolet gemacht.”
Zwei “auf GA warten”-Muster
Multi-Tenant-SaaS-Agenten mit getrennten Kunden-Kohorten. Wenn deine Agenten Kunde A und Kunde B bedienen und Memory-Konsolidierung kreuzkontaminieren könnte (eine Erkenntnis aus Kunde As Daten beeinflusst Kunde Bs Output), ist die Governance-Last für ein Research-Preview-Produkt zu hoch. Warte auf Anthropics expliziten Multi-Tenant-Isolations-Garantien — und auf die Klärung, wie das mit Auftragsverarbeitungsverträgen (AVV) nach Art. 28 DSGVO zusammenpasst.
Echtzeit-/Voice-Frontend-Agenten. Dreaming ist ein Zwischen-Session-Prozess. Voice-Agenten haben keine sinnvollen Idle-Fenster — die nächste Session startet Sekunden nach der letzten. Der Konsolidierungs-Pass passiert entweder nicht oder zu billig, um zu zählen.
Was Dreaming nicht löst
Schlechtes initiales Agent-Design. Wenn das Tool-Routing falsch ist, der System-Prompt widersprüchlich oder die Aufgabenzerlegung unsinnig — Dreaming konsolidiert die Dysfunktion. Müll-Speicher rein, Müll-Konsolidierung raus.
Halluzination im Basismodell. Memory-Konsolidierung ändert nicht die Tendenz des Basismodells, bei Unsicherheit zu erfinden. Wenn dein Agent in 5% der Fälle Zitate fabriziert, könnte Dreaming das Muster “dieser Nutzer will selbstbewusste Antworten” konsolidieren — und die Halluzinations-Rate steigt.
Agenten ohne persistenten Speicher. Schon in Frage 1 erwähnt, aber wert zu wiederholen: das ist der häufigste Grund, warum Teams im Pilot enttäuscht sind.
DSGVO-Gaps, die du nicht vorher schließt. Dreaming löst keine fehlende DPIA, keine fehlende Aufbewahrungsmatrix und keine fehlenden Betroffenenrechte. Im Gegenteil — es macht jeden dieser Gaps schwerer zu retrofitten, weil die konsolidierten Speichereinträge nicht mehr trivial einer Original-Session zuzuordnen sind.
Die vier Signale für die nächsten 30 Tage
Anthropics erste Dreaming-GA-Timeline-Aussage. Research Preview ist der Kanarienvogel. Anthropic bewegt Features typischerweise innerhalb von 60–90 Tagen in Public Beta, wenn die Aufnahme positiv ist. Beobachte das Code-with-Claude-London-Event am 19. Mai für den ersten Hinweis.
Reddit r/ClaudeAI und r/Anthropic 7-Tage-Produktions-Berichte. Die Community wird ab Tag 7 des Zugangs Deployment-Retrospektiven veröffentlichen. Achte auf workload-spezifische Multiplikatoren — die sind dein ehrlicher Erwartungswert, nicht Anthropics Case Study.
OSS-Äquivalent-Emergenz. LangGraph, CrewAI oder AutoGen werden ein Dreaming-Äquivalent landen. Wer zuerst liefert, definiert den modell-portablen Pattern. Wer zweitens liefert, ist meistens besser — die erste Version bekommt die Architektur falsch.
Aufsichtsbehördliche DACH-Reaktion. Bayerisches Landesamt für Datenschutzaufsicht (BayLDA), HmbBfDI und der Landesdatenschutzbeauftragte BW haben in den letzten 12 Monaten alle KI-spezifische Leitfäden veröffentlicht. Ein Statement zur Memory-Konsolidierung in KI-Agenten ist wahrscheinlich Q3 — und wird für Multi-Tenant-Architekturen entscheidend sein.
Fazit
Dreaming ist ein echtes Produktionsmuster, kein Marketing-Schmuck. Die Harvey-6× ist eine Obergrenze — die Zahl deines Teams wird wahrscheinlich zwischen 1,5× und 3× Verbesserung der Abschlussrate liegen, mit 30–60% Kostenreduktion pro Abschluss, auf Workloads mit wiederholten Mustern und persistenten Speichern.
Wenn dein Team die fünf Fragen besteht, fordere diese Woche Research-Preview-Zugang an und führe einen 5-Tage-Pilot mit einem produktionsähnlichen Agent und einem sauberen A/B (Dreaming-an / Dreaming-aus) durch. Entscheide an Tag 6 über Expansion oder Halt.
Wenn dein Team an Frage 2 scheitert (DPIA fehlt oder ist unvollständig), hat dein Q3 eine wichtigere Aufgabe als Dreaming: die DSGVO-Konformität deines Agent-Stacks formal abzuschließen. Anthropic eröffnete im November 2025 sein erstes Büro in Deutschland — die Compliance-Frage wird in den nächsten Monaten der Hauptdiskussionspunkt zwischen DACH-Käufern und Anthropic werden, nicht das Feature selbst. Wer DPIA-fertig ist, hat einen 6-Monats-Vorsprung beim eigentlichen Pilotieren.
Wenn du tiefer ins Thema produktionsreife Agent-Loops mit Claude einsteigen willst — inklusive Speicher-Schicht, Eval-Harness und Routing-Entscheidungen — und parallel die DSGVO-Seite sauber aufstellen willst, schau dir unseren Kurs zu DSGVO und KI und die Workspace-Agent-Praxis an.
Quellen
- New in Claude Managed Agents: dreaming, outcomes, and multiagent orchestration — Claude Blog
- Anthropic kündigt “Dreaming” für Claude Managed Agents an — IT-Daily, Mai 2026
- Claude Managed Agents — Speicheroptimierung erklärt — IT Boltwise, Mai 2026
- Claude Managed Agents — Entwicklerhilfe für KI-Agenten — Golem, April 2026
- Anthropic eröffnet Büro in Berlin — Handelsblatt, November 2025
- Claude Code Langzeittest — ComputerBase, April 2026
- BfDI: Handreichung zum datenschutzkonformen KI-Einsatz, Dezember 2025 — all-about-security
- DSGVO und autonome KI-Agenten — ComputerWeekly
- Datenschutz-Folgenabschätzung Art. 35 DSGVO bei KI-Agenten — Technova Partners
- Compliance-Schwachstellen bei KI-Agenten — keyed
- Live Blog: Code w/ Claude 2026 — Simon Willison