Seit dem 5. Mai 2026 läuft hinter ChatGPT ein anderes Modell als noch eine Woche davor. Im Modell-Picker steht weiterhin “Instant” – aber darunter steckt jetzt GPT-5.5 Instant. Laut OpenAI rund 52,5 Prozent weniger Halluzinationen bei High-Stakes-Prompts (Medizin, Recht, Finanzen), etwa 30 Prozent kürzere Antworten, kaum noch Emoji und Schluss mit den “Möchtest du noch …?"-Rückfragen.
Wer ChatGPT täglich nutzt, merkt den Unterschied am ersten Tag. Kürzere Texte, weniger Floskeln, weniger Geplauder. Genau das, worum die deutsche Tech-Community seit Monaten in Heise-Foren und auf t3n gebeten hat.
Der Haken: Viele Prompts, die mit 5.3 zuverlässig gute Ergebnisse geliefert haben, funktionieren mit 5.5 schlechter. Nicht weil das Modell dümmer ist – sondern weil es deine Anweisungen wörtlicher und knapper umsetzt. Deine alten Prompts waren auf ein gesprächigeres Modell zugeschnitten.
Das hier ist die Migrationsliste. Zwölf Prompts, die fast jeder regelmäßig an ChatGPT schickt, neu geschrieben für das neue Standardmodell – mit einer kurzen Notiz, was sich geändert hat und warum.
Was sich konkret geändert hat
Die offizielle OpenAI-Ankündigung und die deutschsprachige Einordnung bei Dataconomy sind beide solide. Für die Prompt-Praxis zählen vier Dinge:
- Ton ist standardmäßig knapp. Alte Anweisungen wie “fasse dich kurz”, “ohne Einleitung”, “in Stichpunkten” sind jetzt redundant. Das Modell macht das ohnehin. Wenn du es trotzdem reinschreibst, ist es kein Fehler, aber Tokens, die du sparen könntest.
- Keine “Schritt für Schritt”-Vorreden mehr. GPT-5.3 hat sehr gerne mit “Großartige Frage! Lass mich das durchdenken …” angefangen. 5.5 geht direkt zur Sache. Wenn dein Prompt explizit “denke schrittweise laut nach” enthält, zahlst du das jetzt mit Output, den du gar nicht brauchst.
- Memory Sources ist neu – und unvollständig. Wenn ChatGPT eine Antwort auf Basis gespeicherter Erinnerungen, vergangener Chats oder verbundener Apps (Gmail, Drive) personalisiert, zeigt jetzt ein kleines “i”-Symbol, welche Quellen verwendet wurden. Wichtig: Das Panel zeigt einige, nicht alle Quellen. Wer Prompts schreibt, die voraussetzen, dass ChatGPT etwas aus dem letzten Gespräch “weiß”, sollte das Panel zur Kontrolle nutzen.
- Persona-Prompts werden eher ignoriert. “Du bist ein erfahrener Berater mit 20 Jahren …” funktioniert noch, aber das Modell streift die Verkleidung intern ab und antwortet einfach. Lange Rollenbeschreibungen sind verlorene Tokens.
Das Prinzip hinter allen zwölf Umschriften unten: Sag, was du als Ergebnis willst – nicht, wie das Modell dahin kommen soll.
Die 12 Umschriften
1. “Erklär mir ein Konzept”
Alt (für 5.3):
“Kannst du mir Quantenverschränkung so erklären, als wäre ich ein neugieriger Erwachsener ohne Physikkenntnisse? Bitte verwende Analogien, vermeide Fachjargon, und führe mich Schritt für Schritt durch. Mach es interessant.”
Neu (für 5.5):
“Erkläre Quantenverschränkung für Laien. Eine Analogie, dann die zugrunde liegende Regel. 200 Wörter.”
Was sich geändert hat: “Interessant” entfernt (5.5 polstert nicht), “Schritt für Schritt” entfernt (5.5 strukturiert von selbst), Wortzahl gesetzt (5.5 hält Längenvorgaben sehr sauber ein).
2. “Fasse diesen Artikel zusammen”
Alt:
“Bitte lies den Artikel unten und gib mir eine gründliche Zusammenfassung. Inklusive Hauptargument, Stützpunkte und etwaiger Gegenargumente. In Stichpunkten und umfassend.”
Neu:
“Fasse diesen Artikel in 5 Stichpunkten zusammen: These, drei wichtigste Stützpunkte, stärkster Einwand, den der Artikel nicht behandelt. [einfügen]”
Was sich geändert hat: “Gründlich” und “umfassend” haben früher die Antwort verlängert. Jetzt verlangsamen sie sie nur noch. Inline-Struktur gibt sauberen Output.
3. “Schreib diese E-Mail um”
Alt:
“Ich füge unten eine E-Mail ein. Kannst du sie professioneller, aber dennoch freundlich umschreiben? Knapp, aber nicht zu knapp. Ton so, dass es nicht nach KI klingt. Alle wichtigen Details bitte erhalten.”
Neu:
“Schreibe diese E-Mail um. Professionell, freundlich, keine KI-Marker. Zahlen und Termine behalten. [einfügen]”
Was sich geändert hat: Jeder Halbsatz im alten Prompt war eine Vorsichtsformel. 5.5 liest Vorsichtsformeln als Rauschen. “Keine KI-Marker” wirkt jetzt direkt als Anweisung.
4. “Gib mir Feedback”
Alt:
“Hier ist mein Entwurf. Kannst du mir ehrliches, konstruktives Feedback zu Struktur, Klarheit und Überzeugungskraft geben? Nicht nur loben – sag mir, was nicht funktioniert. Sei konkret.”
Neu:
“Kritisiere diesen Entwurf. Drei Dinge, die funktionieren, drei, die nicht funktionieren. Direkt und ohne Höflichkeitsfloskeln. [einfügen]”
Was sich geändert hat: 5.5 ist wirklich direkt, wenn man es klar verlangt. 5.3 brauchte drei Sätze Erlaubnis. Für alle, die Texte editieren lassen, ist das die wichtigste Verbesserung.
5. “Vergleich X und Y”
Alt:
“Kannst du einen detaillierten Vergleich von Notion und Obsidian für persönliche Notizen geben? Preis, Funktionen, Benutzerfreundlichkeit, und welches besser für welchen Nutzertyp ist. Tabelle, falls hilfreich.”
Neu:
“Notion vs. Obsidian für persönliche Notizen. Vergleichstabelle: Preis, Funktionen, Bedienung. Danach Empfehlung in einem Satz.”
Was sich geändert hat: 5.5 baut Tabellen ohne Aufforderung, wenn sie passen. Die Ein-Satz-Empfehlung am Schluss erzwingt eine echte Entscheidung statt einer Aufzählung von Vor- und Nachteilen.
6. “Hilf mir beim Brainstorming”
Alt:
“Ich brauche Ideen für einen Podcast über nachhaltige Mode. Generiere bitte eine breite Auswahl an Ideen – verschiedene Formate, Blickwinkel, Zielgruppen. Mindestens 20 Ideen, nicht filtern – Menge vor Qualität.”
Neu:
“20 Podcast-Ideen zum Thema nachhaltige Mode. Mix aus Formaten (Interview/Solo/Storytelling). Jede mit Zielgruppe markieren. Kein Geplauder.”
Was sich geändert hat: “Kein Geplauder” wurde der hilfreichste Migrationsbefehl überhaupt. 5.5 versteht das.
7. “Agiere als …”
Alt:
“Du bist ein erfahrener Produktmanager mit 15 Jahren Berufserfahrung in einem großen Tech-Konzern. Du prüfst meine Produkt-Roadmap. Sei kritisch, stelle harte Fragen, halte dich nicht zurück. Hier ist die Roadmap: [einfügen]”
Neu:
“Stresstest für diese Produkt-Roadmap. Die drei schwächsten Annahmen, zwei fehlende Risiken, eine Wette, die wirklich ungewöhnlich ist. [einfügen]”
Was sich geändert hat: Die Rollenanweisung ist jetzt Overhead. 5.5 nimmt die Rolle implizit an, wenn die Aufgabe rollentypisch ist (stresstesten, kritisieren, auditieren). Spar dir den Vorspann, beschreib die gewünschte Struktur.
8. “Extrahiere Daten aus diesem Text”
Alt:
“Bitte extrahiere sorgfältig folgende Informationen aus dem Text unten: Firmennamen, Geldbeträge, Datumsangaben, zitierte Statistiken. Saubere Liste, nichts vergessen. Hier ist der Text: [einfügen]”
Neu:
“Aus dem Text extrahieren: Firmennamen, Geldbeträge, Datumsangaben, zitierte Statistiken. JSON. Bei fehlenden Feldern null, nichts erfinden. [einfügen]”
Was sich geändert hat: 5.5 liefert strukturierten Output deutlich besser. JSON anfordern bringt sauberes JSON. “Nichts erfinden” schließt die Halluzinationstür für leere Felder.
9. “Plan etwas”
Alt:
“Hilf mir, eine 5-Tage-Reise nach Lissabon zu planen für ein Paar Anfang 30, das Essen, Design und ruhige Viertel mag. Wir wollen keinen vollgepackten Zeitplan – Raum zum Schlendern lassen. Tagesablauf morgens/mittags/abends.”
Neu:
“5-Tage-Lissabon-Reiseplan für ein Paar Anfang 30. Interessen: Essen, Design, ruhige Straßen. Tempo: gemütlich. Tagesplan morgens/mittags/abends. Eine Restaurant-Reservierungsempfehlung pro Tag.”
Was sich geändert hat: Weiche Einschränkungen (“wir wollen keinen vollgepackten Plan”) durch Tempo-Labels (“Tempo: gemütlich”) ersetzt. Das neue Modell parst Labels schneller als Sätze.
10. “Debugge meinen Code”
Alt:
“Hier ist mein Python-Skript. Es soll Daten von einer API holen und in CSV schreiben, aber ich bekomme einen Fehler. Schau es dir bitte sorgfältig an, erklär mir was falsch sein könnte, und schlag eine Lösung vor.”
Neu:
“Debug das. Ziel: API → CSV. Fehler: [Fehler einfügen]. Code: [Code einfügen]. Bitte: Ursache, betroffene Zeile, korrigierter Code.”
Was sich geändert hat: Erst Ziel, dann Fehler, dann Code, dann gewünschter Output. Ergibt eine saubere Antwort statt eines hin-und-her-Dialogs.
11. “Recherchiere ein Thema”
Alt:
“Kannst du den aktuellen Stand des CO2-Zertifikatemarktes recherchieren? Ich will wissen, wer die wichtigsten Akteure sind, welche aktuellen Kontroversen es gibt, regulatorische Entwicklungen und wohin sich das Feld bewegt. Gründlich, aber zugänglich.”
Neu:
“CO2-Zertifikatemarkt, aktueller Stand. Inhalt: 5 wichtige Akteure (mit je einer Zeile), 2 aktuelle Kontroversen, 1 regulatorische Änderung, 1 Prognose. Quellen, wo möglich.”
Was sich geändert hat: Festgelegte Zahlen pro Abschnitt (5/2/1/1) geben dir etwas Editierbares. “Gründlich, aber zugänglich” hat früher 1500 Wörter produziert; der neue Prompt liefert 400 Wörter zum Reinklicken.
12. “Kreatives Schreiben”
Alt:
“Schreib eine Kurzgeschichte über eine Bibliothekarin, die ein Buch entdeckt, das sich selbst schreibt. Atmosphärisch, literarisch, etwa 800 Wörter. Mit sinnlichen Details und einem überraschenden Ende.”
Neu:
“Kurzgeschichte, 800 Wörter. Setting: Bibliothekarin findet selbstschreibendes Buch. Ton: literarisch, atmosphärisch. Harte Regel: Das Ende muss den naheliegenden Plot-Twist unterlaufen.”
Was sich geändert hat: “Überraschendes Ende” hat fast immer den naheliegenden Twist produziert. “Den naheliegenden Plot-Twist unterlaufen” – als harte Regel formuliert – führt wirklich zu etwas Eigenständigerem. Verwende “Harte Regel:” überall, wo eine Einschränkung tatsächlich halten soll.
Das Muster in einem Satz
Alte Prompts waren anweisungsstark und ergebnisarm. Sie haben dem Modell gesagt, wie es denken soll, wie es formatieren soll, wie es sich verhalten soll. Neue Prompts sollten ergebnisstark und anweisungsarm sein. Sag, was das Ergebnis sein soll – nicht, wie das Modell dorthin kommt.
Schema:
[Aufgabe] [Objekt]. [Struktur]. [Ton/Umfang]. [harte Regeln, wenn nötig].
Vier kurze Fragmente statt einem Absatz.
Was die Tiefenrecherche dazulegt (die Zahlen, die niemand in die Headline schreibt)
Die “52,5 Prozent weniger Halluzinationen” von OpenAI sind echt, aber eng. Unabhängige Quellen zusammengezogen ergeben ein anderes Bild:
- Der AA-Omniscience-Benchmark von Artificial Analysis misst GPT-5.5 mit 57 Prozent faktischer Genauigkeit – der höchste je gemessene Wert – aber mit einer Halluzinationsrate von 86 Prozent, wenn das Modell die Antwort nicht weiß. Zum Vergleich: Claude Opus 4.7 liegt bei 36 Prozent, Gemini 3.1 Pro bei 50 Prozent. Lies-zwischen-den-Zeilen: GPT-5.5 ist selbstsicherer, wenn es das nicht sein sollte. Die Halluzinationssenkung von OpenAI gilt für gezielte High-Stakes-Szenarien; außerhalb dieser Spur erfindet das Modell häufiger als die Konkurrenz, sobald es eine Wissenslücke trifft.
- Die Größenordnung des Rollouts wird unterschätzt. Laut Statista hat ChatGPT im Februar 2026 die Marke von 900 Millionen wöchentlich aktiver Nutzer:innen überschritten – doppelt so viele wie ein Jahr davor (400 Millionen). Ein einziger Standardmodellwechsel verändert schlagartig Hunderte Millionen Arbeitsabläufe. Genau deshalb ist eine “kleine” UX-Änderung wie Memory Sources tatsächlich folgenreich.
- API-Nutzende zahlen real das Doppelte. GPT-5.3 Instant kostet 1,75 USD/M Input + 14 USD/M Output. GPT-5.5 (allgemeiner API-Endpoint) kostet 5 USD/M Input + 30 USD/M Output. Token-Effizienz fängt einen Teil davon auf – die rund 30 Prozent kürzeren Antworten drücken die effektiven Pro-Task-Kosten auf etwa 20 Prozent Aufschlag – aber der Listenpreis hat sich verdoppelt.
- Memory Sources hat eine reale Angriffsfläche. Anfang 2026 haben Check-Point-Forscher einen DNS-basierten Seitenkanal offengelegt, mit dem ChatGPT-Konversationsdaten still abgezogen werden konnten; OpenAI hat am 20. Februar 2026 gepatcht. Der Head of Research bei Check Point hat es dann klar gesagt: “Native Sicherheitskontrollen reichen allein nicht mehr.” Plus-/Pro-Nutzer:innen mit aktivierter Gmail-Integration haben damit einen neuen Prompt-Injection-Vektor gegen E-Mail eingeführt – weshalb große Banken und Bundesbehörden ChatGPT-Nutzung intern vorsorglich eingeschränkt haben.
- Memory Sources ist nicht nur UX – es ist longitudinales Profiling. Privacy-Forscher:innen bei PIA beschreiben es als “weit über Session-Memory hinaus”: Frühere Konversationen, Dateien und verbundene Gmail-Threads speisen ein dauerhaftes Profil aus Überzeugungen, Arbeit und Beziehungen. Die OpenAI-Datenschutzerklärung erlaubt die Nutzung von Inhalten “zur Verbesserung der Dienste” – Memory-Daten liegen rechtlich in einer Grauzone zwischen “Nutzerpräferenz” und “Trainingsinput”. Für DSGVO-konforme Setups ist das die kritische Stelle.
Der praktische Migrationsrat: Memory Sources für sensible Workflows als Opt-in behandeln, gespeicherte Memories wöchentlich im Panel auditieren, und für jeden Chat mit Mandanten- oder Geschäftsdaten den temporären Chat-Modus nutzen.
Was es nicht kann (die ehrlichen Grenzen)
Eine Migrationsliste ist kein Persönlichkeitstausch. Ein paar Dinge, die du wissen solltest:
- Lange kreative Texte profitieren weiterhin von ausführlicheren Briefings. Ein 2000-Wörter-Essay oder ein Romankapitel will mehr Kontext. Die “kurzer-Prompt”-Regel gilt für den Alltag – E-Mails, Zusammenfassungen, Debugging, Vergleiche. Nicht für anhaltendes Schreiben.
- Memory Sources zeigt nicht alles. Das Panel listet verwendete Quellen, aber nicht zwingend alles, was betrachtet wurde. Wer Wert auf Datensparsamkeit legt, sollte zusätzlich direkt in den ChatGPT-Einstellungen prüfen, was an gespeicherten Erinnerungen tatsächlich aktiv ist – das Panel ersetzt diese Kontrolle nicht.
- Die “Faulheit”-Klagen sind real. Manche Nutzer berichten, dass 5.5 Aufgaben mitten im Output abbricht oder sich beim Nachfragen weigert, mehr zu liefern. Lösung: Mit fehlender Anweisung neu prompten (“erweitere Schritt 3 mit Codebeispiel”), nicht mit dem Modell diskutieren.
- Custom Instructions wirken weiter. Wer in ChatGPT systemweite Anweisungen (“Über mich” / “Antwortstil”) hinterlegt hat, bekommt unter Umständen längere Antworten als die neue Standardlänge. Die Custom Instructions kurz prüfen ist Pflicht.
- API-Nutzer von
gpt-5-3-instantsind nicht betroffen. Das Update betrifft die Consumer-Oberfläche von ChatGPT. Wer per API direkt das alte Modell aufruft, behält das alte Verhalten.
Was das für dich heißt
Wenn du ChatGPT gelegentlich nutzt (ein paar Prompts pro Tag): musst du nichts migrieren. Achte einfach darauf, wann sich ein alter Prompt unrund anfühlt, und nimm dann das Schema oben.
Wenn du Prompts beruflich schreibst (Marketing, Operations, Vertrieb): Geh diese Woche durch deine gespeicherte Promptsammlung. Streich jede Anweisung, die dem Modell sagt, wie es sich verhalten soll. Behalte das Ergebnis und die Struktur.
Wenn du eine Promptsammlung im Team pflegst: Schreib einen einseitigen Style-Guide auf Basis der Beispiele oben. Die häufigste teamweite Verschlechterung der Promptqualität nach einem Standardmodellwechsel ist, dass Kolleg:innen sich gegenseitig die alten Prompts kopieren. Sei schneller.
Wenn du Entwickler:in bist und die API nutzt: Dich betrifft das jetzt noch nicht. Das gleiche Brevitäts-Verhalten kommt aber sehr wahrscheinlich auch auf API-Ebene. Schreib jetzt schon nach dem neuen Muster, damit du nicht zweimal migrieren musst.
Wenn du KI an Einsteiger:innen vermittelst (Schule, Volkshochschule, betriebliche Weiterbildung): Die neue Version ist tatsächlich didaktisch besser. Lernende, die früher von der Textwand erschlagen wurden, bekommen jetzt knappe, scannbare Antworten. Weniger umzulernen.
Fazit
Das Modell ist schlauer, knapper und ein bisschen mürrischer geworden. Deine Prompts sollten mitziehen. Streich die Höflichkeitsfloskeln, die Prozessanweisungen und die Persona-Verkleidung – behalte das Ergebnis und die Struktur. Das bringt schnellere Antworten, weniger Regenerierungen und (auch wichtig) rund 30 Prozent weniger Tokens – was die Umwelt-Bilanz der einzelnen Anfrage spürbar verbessert, auch wenn du als Consumer-Nutzer:in das Token-Sparen nicht selbst zahlst.
Wer eine saubere persönliche Promptsammlung aufbauen will, die solche Modellwechsel überlebt, findet im ChatGPT-Meisterkurs die durchhaltefähigen Muster – die Teile des Promptings, die sich über die letzten vier Standard-Modellwechsel hinweg nicht verändert haben.
Quellen
- OpenAI – GPT-5.5 Instant: smarter, clearer, and more personalized
- Dataconomy DE – OpenAI macht GPT-5.5 Instant zum Standard-ChatGPT-Modell
- Stadt Bremerhaven – GPT-5.5 Instant ist da
- Retail-News – ChatGPT bekommt neues Standardmodell GPT-5.5 Instant
- 20 Minuten – Warum OpenAI ChatGPT jetzt auf GPT-5.5 Instant umstellt
- TechCrunch – OpenAI releases GPT-5.5 Instant
- OpenAI Deployment Safety Hub – GPT-5.5 Instant System Card