OpenAI hat am Dienstagnachmittag GPT-5.5 Instant als neuen Default für ChatGPT ausgeliefert — den Tag, bevor Anthropic in San Francisco Code with Claude eröffnet hat. Der Launch-Tweet hat in den ersten sechs Stunden 8.056 Likes gesammelt. Der interessante Teil ist nicht die Marketing-Copy, sondern dass das hier das erste OpenAI-Release ist, das ein explizites Halluzinations-Reduktions-Versprechen für drei spezifische Verticals auf den Tisch legt: Recht, Medizin, Finanzen. Anthropics Sonnet 4.6 ist seit zwei Quartalen die kostenseitig-anchored Alternative für genau diese Workloads. Also kriegt jeder Engineering-Manager diese Woche dieselbe Frage gestellt: welches Modell, auf welcher Surface, für welchen Workload, in diesem Quartal?
Das ist ein ehrlicher Fünf-Dimensionen-Vergleich für die Leute, die das Routing tatsächlich machen — nicht für die Leute, die das Marketing machen. Kein “AI-Showdown”-Framing. Die Entscheidungs-Matrix unten ist das, was dein Slack-Channel am Ende benutzen wird.
Was sich Dienstag wirklich geändert hat
GPT-5.5 Instant ist OpenAIs neuer ChatGPT-Default-Modell, das GPT-5.3 Instant ersetzt. Die Zahl, die zählt: in OpenAIs internen Evaluierungen produzierte GPT-5.5 Instant 52,5 % weniger halluzinierte Claims als GPT-5.3 Instant auf High-Stakes-Prompts in Medizin, Recht und Finanzen, plus 37,3 % weniger ungenaue Claims auf Conversations, die Nutzer vorher als faktisch fehlerhaft markiert hatten. Die Antworten sind außerdem rund 30 % kürzer und 29 % weniger Zeilen — OpenAI hat explizit auf konzise Outputs hin getuned, statt auf die Bullet-and-Emoji-Wand, die der GPT-5.3-Instant-Default war. Latenz bleibt im selben Tier; das ist kein Reasoning-Modell, das ist die Fast-Tier mit schärferer Retrieval und weniger Hedges.
Das Modell ist sofort verfügbar für alle ChatGPT-User (Plus und Pro kriegen es zuerst auf Web, dann Mobile, dann Free/Business/Enterprise) und über die API als chat-latest. GPT-5.3 Instant bleibt für Paid-User noch drei Monate als Fallback erreichbar während Eval-Rebuilds. Das Memory-and-Gmail-Feature, das gleichzeitig gelandet ist — “memory sources”, die das Modell vergangene Chats, Files und Gmail-Messages by reference zitieren lässt — ist die Policy-Layer-Story, mit der IT-Teams den Rest der Woche verbringen werden.
Für unsere Zwecke heute routen wir Workloads. Das Modell sitzt auf einem Tier. Vergleich mit Claude Sonnet 4.6 entlang der fünf Dimensionen, die die Routing-Entscheidung tatsächlich bewegen.
Die fünf-Dimensionen-Routing-Entscheidung
Dimension 1 — Pricing
Claude Sonnet 4.6 listet bei 3 USD pro Million Input-Token und 15 USD pro Million Output-Token. GPT-5.5 standard (das größere Geschwistermodell, über die API erreichbar für Non-Instant-Routes) listet bei 5 USD Input / 30 USD Output. Sonnet 4.6 ist 1,9× günstiger pro Token bei vergleichbarem Volumen. Sonnet 4.6 hat 200K Context, GPT-5.5 hat 1,1 Mio. Token Context — der ist nur dann ein echter Hebel, wenn du sehr lange Document-Workloads routest.
Für ein Team, das zwei Millionen Output-Token pro Tag über eine Agent-Flotte fährt, ist das ein 30-USD-Delta nur auf den Output-Token pro Tag — klein pro Tag, rund 11.000 USD pro Jahr vor Traffic-Wachstum. Pricing ist die berechenbarste Variable in diesem Vergleich und die, die kompoundiert.
GPT-5.5 Instant speziell — der neue Default — ist über chat-latest gepriced. Es ist das günstigere Ende der GPT-5.5-Familie auf der API, aber halt immer noch ein Instant-Tier; für schwere Workloads, wo Sonnet 4.6 bisher das Arbeitstier war, gewinnt die Per-Token-Mathematik immer noch klar für Sonnet im Steady-State.
Routing-Implikation: Wenn dein Workload High-Volume ist und du nicht an ein spezifisches Feature gebunden bist, ist Sonnet 4.6 der Default. Das Cost-Delta dreht nur, wenn GPT-5.5s Halluzinations-Tuning der load-bearing Grund ist, warum du es wählst.
Dimension 2 — Halluzinations-Tuning by Vertical
OpenAI hat Recht, Medizin und Finanzen explizit benannt. Die 52,5 %-Reduktion ist Internal-Evaluation-Data, nicht von Dritten reproduziert — aber das Targeting ist real. Die Pre-Print-Operator-Class-Lesart aus dem GPT-5.5-Launch-Coverage ist: “Halluzinations-Reduktion in Recht, Medizin und Finanzen ist genau der Teil, den Operatoren testen sollten.” Das ist das richtige Framing.
Sonnet 4.6s Profil ist breit stabil über Verticals hinweg. Anthropics Trainings-Approach (Constitutional AI, die Cowork-Enterprise-Context-Share-Patterns) wurde nicht in derselben expliziten Weise verticalisiert; Sonnet 4.6 ist gleichmäßiger, hat aber keinen OpenAI-Style “wir haben für diese drei Verticals getuned”-Claim.
Routing-Implikation: Wenn dein Traffic von High-Stakes-Legal-Research, Healthcare-Clinical oder Finance-Citation-Workflows dominiert wird, hat GPT-5.5 Instant den expliziten Tuning-Vorteil out of the gate. Vor Commit testen: Nimm die letzten 50 Prompts in deinem fehleranfälligsten Vertical-Workflow, fahre beide Modelle, scor selbst. Wenn GPT-5.5 mehr als ~5 Prozentpunkte auf faktischer Genauigkeit gewinnt, ist das Routing das Preis-Delta wert. Wenn nicht, gewinnt die Preis-Mathematik.
Für Verticals außerhalb von OpenAIs benannter-Drei-Liste (Engineering, Customer Support, interne Docs, Sales Ops) gilt das Halluzinations-Tuning-Argument nicht und der Call fällt zurück auf Dimensionen 1 und 5.
Dimension 3 — Coding-Benchmarks
GPT-5.5 standard führt auf SWE-bench Verified mit 9,1 Punkten Vorsprung (88,7 vs Sonnet 4.6 bei 79,6). Auf Terminal-Bench 2.0 führt GPT-5.5 ebenfalls. Sonnet 4.6 schlägt GPT-5.5 nur auf dem Finance Agent Benchmark — interessant gegeben OpenAIs Halluzinations-Targeting in Finanzen, suggeriert dass das Tuning Genauigkeit half, aber nicht volle agentische Execution auf diesen Tasks.
Die X-Reaktionen über Nacht sind in einer für das Routing nützlichen Weise gemischt. @franklinto: “GPT 5.5 ist besser als Sonnet 4.6 beim Debugging.” @giordanorandone: “Codex hat schon einen besseren Job als Opus-4.7 beim Coding gemacht.” Aber @smithstephen rated Claude Opus 4.7 mit 9/10 vs GPT-5.5 bei 3-4/10 auf “polished presentation” und merkte an, dass er GPT-5.5 spezifisch innerhalb von Codex (dem agentischen Coding-Harness) bevorzugt. @gabriel_horwitz hat den Output-Style-Komplaint gut zusammengefasst: GPT-Antworten sind “kurze Zeilen, Bullets, Emojis… super lang aber als Scroll… weniger professionell” gegenüber Claudes Paragraph-Form-Prosa.
Routing-Implikation: Für agentische Coding-Workflows, wo Codex dein Harness ist und der Input ein Issue oder Test-Failure ist, ist GPT-5.5 der stärkere Pick auf Benchmarks und passt zum Harness, für den OpenAI optimiert hat. Für Codegen, das in reviewbare, Paragraph-Form-Outputs füttert (technische Docs, Code-Review-Erklärungen, Architecture-Decision-Records), ist Sonnet 4.6s Prosa der bessere Default. Routen nach Harness, nicht nach Modell, ist das tatsächlich nützliche Framing.
Dimension 4 — Context Window und Document-Workloads
GPT-5.5: 1,1 Mio. Token. Sonnet 4.6: 200K Token. Fünfeinhalbfaches Window für GPT-5.5.
Für die meisten Production-Workloads — Chat-Sessions, Agent-Loops, Code-Edits mit File-Scope-Context — sind 200K mehr als genug. Der 1,1-Mio-Hebel matters spezifisch für: Bulk-Document-Review, wo du komplette SEC-Filings, Vertragspakete, Deposition-Transkripte oder volle Codebases (>200K Token) in einen einzelnen Call fütterst; Long-Running-Multi-Turn-Agent-Transkripte, die Sonnets Window mid-Session überschreiten und Chunking erzwingen.
Die Cost-Mathematik dreht ebenfalls für Long-Document-Workloads: bei 1,1 Mio. Token Input auf GPT-5.5 sind alleine die Input-Kosten 5,50 USD pro Call. Sonnet bei 200K Input ist 60 Cent pro Call. Wenn du in Sonnet chunken kannst, solltest du — der Orchestrierungs-Overhead ist fast immer günstiger als der GPT-Pricing-Premium.
Routing-Implikation: Default auf Sonnet 4.6. Schalte um auf GPT-5.5 spezifisch dann, wenn Chunking unmöglich ist oder Document-Semantik bricht — Long-Form-Legal-Analyse, Full-Codebase-Refactor-Planning, End-to-End-Research-Synthesen, wo der Context-Share zählt. Bezahl nicht für Window, das du nicht nutzt.
Dimension 5 — Output-Style und IT-Policy-Fit
Der X-Community-Split am Dienstagnachmittag lief fast komplett entlang Output-Style-Linien, nicht entlang Capability-Linien. GPT-5.5 Instant ist jetzt merkbar konzieser, behält aber das Bullet-List-and-Emoji-Formatting bei, das manche Teams mögen und andere aktiv unattraktiv finden. Sonnet 4.6s Prosa ist Paragraph-Form und liest sich für Enterprise-Audiences als “polished” (per @smithstephen und ein halbes Dutzend ähnlicher Posts).
Das Memory-and-Gmail-Feature ist die IT-Policy-Story. ChatGPT kann jetzt vergangene Chats, Files und Gmail referenzieren, wenn der User es enabled, und “memory sources” surfacen, die zitieren, welcher vergangene Content die Antwort informiert hat. Für Plus/Pro-User auf Firmen-Devices öffnet das vier IT-Admin-Fragen für diese Woche:
- Sind persönliche Gmail-Accounts in Scope, wenn Mitarbeiter das Feature auf einem Firmen-Device einschalten?
- Was ist unsere DLP-Policy für die Memory-Writes?
- Was ist unsere SCIM/Identity-Provider-Story für Org-controlled vs persönliche Accounts?
- Was ist die User-Comms-Timeline, bevor Staff es einschaltet?
Der Default-on-Rollout heißt: die meisten IT-Teams brauchen eine Block-by-default-or-Allow-with-Policy-Entscheidung bis Wochenende. Anthropics Analogon ist der M365-Cross-App-Context-Share, der am 30. April gelandet ist — anderes Produkt, ähnliche Policy-Entscheidung.
DACH-Spezifikum: bei Memory-and-Gmail-Refresh fragt sich jede DSGVO-konforme Org, wie genau OpenAI Source-Daten klassifiziert und ob Memory-Writes als persistente Verarbeitung gelten. Der Bitkom hat das im April in einem Positionspapier zur DSGVO-Konformität von LLM-Memory-Funktionen angerissen — wer einen DPA mit OpenAI hat, sollte das aktualisierte Memory-Sources-Feature explizit gegen den DPA-Wortlaut prüfen, nicht annehmen, dass der bestehende Vertrag das abdeckt.
Routing-Implikation: Output-Style-Präferenzen sind real und sie sind stabil per Audience. Wenn dein Output von Enterprise-Kunden auf einem Screen gelesen wird, ist der Prosa-Form-Sonnet-Bias durable. Wenn dein Output von einem anderen Agent oder von einem internen Dev geparsed wird, ist das GPT-Formatting fine. Für das Memory-Feature ist die Policy-Entscheidung unabhängig von der Routing-Entscheidung — du kannst GPT-5.5 Instant für manche Workloads fahren und Memory in deinem Tenant disabled haben.
Die Q3-Routing-Matrix
Strip den Vergleich runter. Fünf Workload-Archetypen, das Modell, das defaulten sollte, und der tatsächliche Grund.
| Workload | Default | Warum |
|---|---|---|
| High-Volume agentische Loops (general) | Sonnet 4.6 | 1,9×-Pricing-Edge dominiert at Volume |
| Legal Research / Healthcare Clinical / Finance Citation | GPT-5.5 Instant | Verticalisiertes Halluzinations-Tuning; auf deinen letzten 50 Prompts testen |
| Codegen innerhalb Codex-Harness | GPT-5.5 standard | SWE-bench-Führung + Harness-Alignment |
| Codegen für reviewbare, Paragraph-Form-Outputs | Sonnet 4.6 | Prosa-Default liest sich polished |
| Bulk-Document-Review (>200K Token, no chunking) | GPT-5.5 standard | Einzige praktikable Option auf diesem Context |
Diese Matrix sollte den Launch-News-Cycle überleben. Die zwei stabilen Lanes — Sonnet 4.6 für High-Volume-Cost und Prosa-Output, GPT-5.5 für Vertical-tuned-High-Stakes und Long-Context — sind durable. Code-Routing hängt davon ab, in welchem Harness du schon bist.
Was der Vergleich dir nicht sagen kann
Ein paar ehrliche Grenzen, weil das hier der Post ist, gegen den am meisten Pushback kommt.
OpenAIs Halluzinations-Reduktions-Zahlen sind Internal-Evaluation. 52,5 % klingt dramatisch; du solltest es auf deinen eigenen Prompts reproduzieren, bevor du eine Routing-Entscheidung darauf staakst. Die richtige Reproduktion sind deine letzten 50 Prompts im Highest-Stakes-Workflow, gescort von einem Domain-Experten (nicht von einem Modell). Das ist ein halber Tag Arbeit und es ist die einzige Daten, die die Routing-Frage für deinen Stack auflöst.
Sonnet 4.8 wird erwartet. Anthropic hat es nicht auf der Code with Claude SF am Mittwochmorgen ausgeliefert, aber die npm-leaked References und die Code-with-Claude-London- (19. Mai) plus Tokyo- (10. Juni) Timelines machen ein Sonnet-4.8-Release plausibel innerhalb der nächsten sechs Wochen. Wenn deine Routing-Entscheidung heute auf der Preis-Seite borderline ist, hot-pin Sonnet 4.6 und re-run die Eval an dem Tag, an dem Sonnet 4.8 launcht. Den SF-Launch-Shape haben wir in unserem Same-Day Code-with-Claude-Recap abgedeckt.
Der Output-Style-Split ist durable, aber nicht stabil. OpenAI iteriert aktiv an Tone und Formatting — das Dienstags-“weniger-yappy”-Tuning ist selbst eine Antwort auf GPT-5.3-Community-Feedback. Mach keinen 12-Monats-Routing-Call auf einem Eine-Wochen-Output-Style. Die richtige Kadenz ist eine quartalsweise Re-Eval von Style-Fit gegen deine tatsächlichen Output-Destinationen.
Das Memory-and-Gmail-Feature ist by default on für die meisten User; das ist eine Policy-Story, keine Routing-Story. Behandle es als org-weite DLP- und Identitäts-Entscheidung getrennt von deiner Modell-Routing-Entscheidung. Conflate die beiden nicht.
GPT-5.5-standard-Pricing-Mathematik wird bei High-Traffic-Workloads schnell schlechter. Das 1,9×-Delta auf Token kompoundiert: ein 100-Mio-Token-pro-Monat-Team, das seine volle Agent-Flotte von Sonnet 4.6 auf GPT-5.5 standard switcht, addiert grob 1.500 USD pro Monat alleine auf Output vor Traffic-Wachstum. Die “Lass uns einfach auf einen Vendor standardisieren”-Vereinfachung ist real, aber nicht kostenlos — modelliere deinen tatsächlichen Traffic, bevor du konsolidierst.
Unterm Strich
Der Dienstags-Launch ist real, das Halluzinations-Targeting ist messbar anders als alles, was OpenAI vorher ausgeliefert hat, und für die drei genannten Verticals (Recht, Medizin, Finanzen) ist GPT-5.5 Instant jetzt eine getestete-gegen Alternative zu Sonnet 4.6. Für alles andere — High-Volume-Agent-Loops, Prosa-Output, Codegen außerhalb Codex, Document-Review — hält Sonnet 4.6s Pricing-Edge.
Der tatsächliche Move dieses Quartal ist keine Vendor-Konsolidierung. Es ist eine Workload-by-Workload-Routing-Entscheidung: behalte Sonnet 4.6 als Default-Arbeitstier, reservier GPT-5.5 Instant für die Vertical-tuned-High-Stakes-Arbeit, und reservier GPT-5.5 standard für die Long-Context-Bulk-Document-Arbeit, wo Sonnets Window den Input nicht halten kann. Zwei Lanes, ein bewusst hybrider Stack.
Wenn du Engineer bist und das tatsächlich auf deinen eigenen Prompts evaluieren musst — die einzige Daten, die den Routing-Call auflöst — schau dir unsere KI-Grundlagen und den ChatGPT-Meisterkurs an. Die zwei Kurse decken die 50-Prompts-Eval-Pattern, Scoring-Rubrics für Vertical-Genauigkeit, und die Cost-Impact-Spreadsheet at typical Traffic-Shapes ab. Es ist das Playbook, auf dem der Rest dieses Posts aufbaut.
Quellen
- Introducing GPT-5.5 Instant — OpenAI
- OpenAI releases GPT-5.5 Instant — TechCrunch
- GPT-5.5 Instant rolls out to ChatGPT — Axios
- GPT-5.5 Instant smarter and concise — SiliconANGLE
- GPT-5.5 vs Claude Sonnet 4.6 model comparison — Artificial Analysis
- Claude Sonnet 4.6 vs GPT-5.5 detailed comparison — LLM Stats
- Claude Sonnet 4.6 vs GPT-5: 2026 Developer Benchmark — Sitepoint
- GPT-5.5 Instant nixes gratuitous emojis — 9to5Mac
- GPT-5.5 Instant launches as ChatGPT default — Testing Catalog