GPT-5.5 ist im Word, Excel und Outlook angekommen — das ändert sich wirklich

Microsoft hat GPT-5.5 Instant in den Microsoft 365 Copilot ausgerollt. Was sich im Office-Alltag spürbar ändert — und wie es um Datenschutz steht.

Wenn du diese Woche Word, Outlook oder Excel aufgemacht hast und das Copilot-Seitenpanel sich anders angefühlt hat — kürzere Antworten, weniger “Möchten Sie vielleicht…?"-Rückfragen, Bildanalyse, die plötzlich Tabellen liest, die du eingefügt hast — dann hast du dir das nicht eingebildet. Zwischen dem 7. und 8. Mai hat Microsoft im Microsoft 365 Copilot den Sprachmodell-Unterbau von GPT-5.3 Instant auf GPT-5.5 Instant umgestellt. Intern firmiert es unter dem Namen “GPT-5.5 Chat”. Microsoft hat den Rollout am 12. Mai noch einmal bestätigt, dieses Mal mit dem Verweis auf die allgemeine Verfügbarkeit in Word, Excel, PowerPoint, Outlook und Teams.

Im Office-Ribbon hat sich nichts geändert. Keine “Was ist neu?"-Meldung in Outlook. Deine IT-Abteilung musste nichts aktiv schalten. Das Modell hat sich einfach … aktualisiert. Was übrigens auch genau der Grund ist, warum die meisten Leute den Unterschied bemerken werden, ohne ihn benennen zu können.

Hier kommt der ehrliche Diff. Was sich im Alltag wirklich anders anfühlt, was weiterhin kaputt ist, und welche zwei, drei Dinge du jetzt umstellen (oder gerade nicht umstellen) solltest.

Was Microsoft diese Woche tatsächlich gemacht hat

OpenAI hat GPT-5.5 Instant am 5. Mai als neues Standard-Modell für ChatGPT ausgeliefert. Zwei Tage später hat Microsoft dasselbe Modell in den Microsoft 365 Copilot integriert. Im Copilot trägt es den Markennamen GPT-5.5 Chat — Microsofts Namenskonvention seit der GPT-5-Ära — aber technisch ist es derselbe Checkpoint, den OpenAI auch auf chatgpt.com ausspielt.

Drei Oberflächen sind betroffen:

  1. Microsoft 365 Copilot in den Office-Apps — Word, Excel, PowerPoint, Outlook, Teams, Loop, OneNote. Das Copilot-Seitenpanel und die In-Document-Prompts laufen jetzt standardmäßig auf GPT-5.5 Chat. Es gibt keinen Schalter im UI und keine “Zurück zu GPT-5.3”-Option in den Office-Apps.
  2. Copilot Studio — die Agent-Builder-Oberfläche für Power-Platform-Admins. Hier taucht GPT-5.5 Chat als auswählbares Modell in der Einstellungen → Modell-Dropdown eines Agents auf. Bestehende Produktiv-Agents können weiterhin auf älteren Modellen gepinnt werden.
  3. Microsoft Foundry — die tiefere Entwickler-Plattform für KI-Lösungen auf Azure. Hier ist GPT-5.5 Instant neben der bereits verfügbaren GPT-5.5 Reasoning-Variante zugänglich.

Das ist die Fläche. Jetzt die Frage, die im Alltag wirklich zählt: Wie fühlt es sich an?

Die vier Änderungen, die du innerhalb eines Tages spürst

1. Antworten sind 30 Prozent kürzer geworden

Die größte Einzeländerung ist die Länge. Laut OpenAIs eigenen Benchmarks verwendet GPT-5.5 Instant “etwa 30 Prozent weniger Wörter” als GPT-5.3, um dieselbe oder bessere Information zu liefern. Du spürst das überall im Copilot — verfasste E-Mails sind knapper, Word-Umschreibvorschläge stopfen Absätze nicht mehr mit Floskeln auf, und Teams-Zusammenfassungen sparen sich die überflüssigen “Zusammenfassend lässt sich sagen”-Abschlüsse.

Das Modell ist auch aggressiver beim Streichen unnötiger Struktur. GPT-5.3 hatte die Angewohnheit, jede Zwei-Satz-Antwort in eine Aufzählungsliste mit fettgedruckten Überschriften zu verwandeln. GPT-5.5 tut das deutlich weniger. Falls du dich darüber geärgert hast, dass Copilot eine Ein-Zeilen-Antwort in einen Essay-Entwurf umformatiert — diese Frustration sollte nachlassen.

Was das im Alltag bedeutet: Hör auf, “kurz halten” oder “ohne Aufzählung” an deine Prompts zu hängen. Das Modell wird ohnehin den knapperen Stil wählen. Wenn du tatsächlich die bullet-und-überschriften-Version willst (zum Beispiel für einen Statusbericht), musst du es jetzt explizit verlangen.

2. Halluzinationen sind bei harten Prompts gesunken (mit einem dicken Aber)

OpenAI behauptet, GPT-5.5 Instant produziere 52,5 Prozent weniger erfundene Behauptungen als GPT-5.3 — auf dem internen Eval-Set für hochsensible Prompts aus Medizin, Recht und Finanzen. Bei Konversationen, die von Nutzern zuvor als faktisch falsch markiert wurden, ging die Falschangaben-Rate um 37,3 Prozent zurück.

In zwei Wochen Test im Word- und Outlook-Alltag passt das. Copilot eine 40-Seiten-Vertragsdatei zusammenfassen lassen ist spürbar zuverlässiger. Daten aus einem langen E-Mail-Thread extrahieren liefert jetzt tatsächlich die echten Daten aus dem Thread, nicht plausibel klingende erfundene.

Das Aber heißt Quellenangaben. Nutzer auf X melden auch in dieser Woche weiterhin, dass Copilot 365 mit GPT-5.5 erfundene Quellen zitiert. Interne Dokumente werden korrekt referenziert; externe Web-Search-Quellen entgleisen weiterhin. Die Verbesserung liegt bei der faktischen Erinnerung, nicht bei der Quellenverifikation. Wenn du Copilot für regulierte Workflows nutzt — Rechtsbriefe, Finanzmeldungen, Arztbriefe — gilt weiterhin: jede Quelle gegenchecken.

3. Bildanalyse ist deutlich schärfer geworden

GPT-5.5 Instant erreicht auf MMMU-Pro, einem multimodalen Reasoning-Benchmark, 76,0 Prozent — gegenüber 69,2 für GPT-5.3. Im Alltag übersetzt sich das so: Füge einen Screenshot eines Charts, eines handgezeichneten Diagramms oder einer Folie in Copilot ein, und du bekommst weniger “Ich sehe eine Grafik, kann aber die Werte nicht erkennen”-Antworten.

Das ist die Änderung, die am meisten in PowerPoint Copilot und in jedem Workflow zählt, bei dem du Daten aus einem anderen Tool als Screenshot einfügst. Excel-Nutzer, die einen Screenshot eines Dashboards einfügen und fragen “was zeigt dieser Trend?”, bekommen bessere Antworten. Vertriebsteams, die Folien aus dem Pitch eines Wettbewerbers einfügen und nach einer Preis-Zusammenfassung fragen, bekommen sauberere Extraktion.

Das ist auch der Punkt, an dem die STEM-Gewinne durchschlagen. GPT-5.5 Instant erreicht auf AIME 2025 (Mathematik) 81,2 Prozent gegenüber 65,4 für GPT-5.3 — ein Sprung von 16 Punkten. Wenn du Copilot benutzt, um Formeln in Excel zu prüfen, eine Finanzkalkulation herzuleiten oder eine statistische Aussage in Word zu verifizieren, ist die Mathematik jetzt verlässlicher.

4. Weniger “Wie meinen Sie das?"-Schleifen

GPT-5.5 wurde explizit darauf trainiert, weniger unnötige Rückfragen zu stellen. Im Alltag heißt das: Du tippst einen Prompt, du bekommst eine Antwort — nicht eine Gegenfrage.

Das ist die Verbesserung, die am leichtesten zu übersehen ist, weil das Fehlen von Reibung unsichtbar ist. Am deutlichsten spürst du es in Copilot in Excel, wo GPT-5.3 die starke Tendenz hatte zu fragen “möchten Sie eine Pivot-Tabelle, ein Diagramm oder eine Zusammenfassung?”, bevor irgendetwas passierte. GPT-5.5 wählt einfach die wahrscheinlichste Interpretation und zeigt dir das Ergebnis. Wenn’s falsch ist, lenkst du um — und das Umlenken ist schneller, als die Q&A-Schleife je war.

Der Tradeoff: gelegentlich wählt das Modell die falsche wahrscheinlichste Interpretation und legt einfach los. Bei mehrdeutigen Prompts auf sensiblen Daten möchtest du vielleicht weiterhin explizit sein, auch wenn du es nicht mehr musst.

Die Datenschutz-Frage — kurz und ehrlich

Das ist der Teil, der in deutschen Unternehmen tatsächlich diskutiert wird, und der in der englischen Berichterstattung gerne übersprungen wird.

Microsoft 365 Copilot — inklusive der GPT-5.5-Chat-Variante — fällt unter den EU Data Boundary und ist als gewerblicher M365-Service DSGVO-konform aufgesetzt. Prompts und Antworten werden innerhalb der Microsoft-365-Service-Grenze verarbeitet; Enterprise Data Protection greift; bestehende Berechtigungen werden respektiert. Microsoft hat Copilot zum 1. März 2024 in die Datenresidenz-Verpflichtung aufgenommen, und mit Advanced Data Residency (ADR) plus Multi-Geo gibt es konkrete Datenresidenz-Zusagen für Kunden mit explizitem deutschen oder europäischen Anforderungsprofil.

Was das in der Praxis heißt:

  • Für die meisten Mittelstands- und Konzern-Tenants in Deutschland und Österreich gibt es keinen rechtlichen Grund, GPT-5.5 Chat im Copilot zu blockieren, der über die bestehende Copilot-DSGVO-Bewertung hinausgeht. Der Modellwechsel ändert nichts am Service-Boundary.
  • Wenn dein Datenschutzbeauftragter zur DSGVO-Bewertung des Copilots noch nicht “Daumen hoch” gegeben hat, ist der Modellwechsel der Anlass, das jetzt zu erledigen — nicht der Anlass, es zu blockieren.
  • Wenn dein Unternehmen unter einer der spezifischen Branchenkonformitäten arbeitet (z. B. KRITIS, BAIT, MaRisk), prüfe die Datenresidenz-Einstellungen deines Tenants. Ein in den USA gehosteter Tenant ohne ADR ist eine andere Diskussion als ein deutscher EU-Boundary-Tenant.
  • Der Betriebsrat sollte involviert sein, wenn Copilot zum ersten Mal eingeführt wird — der Modellwechsel selbst ist kein neuer Mitbestimmungstatbestand.

Die wirklich heikle DSGVO-Frage rund um Copilot ist nicht GPT-5.5 vs. GPT-5.3, sondern die übergeordnete: Welche Geltungsbereiche dürfen Mitarbeiter Copilot über SharePoint, OneDrive und E-Mail-Postfach sehen lassen? Diese Frage ist mit dem Modellwechsel nicht einfacher oder schwerer geworden — sie ist dieselbe.

Was das für dich heißt

Wenn du Microsoft 365 im Alltag verwendest — Outlook entwerfen, Word zusammenfassen, Teams-Notizen — musst du nichts tun. Das Modell hat sich automatisch aktualisiert, deine bestehenden Prompts funktionieren meist besser, und deine IT-Abteilung wird keine Schulung dazu ansetzen, weil es nichts zu schulen gibt. Die eine Verhaltensänderung, die sich lohnt: vertraue dem kürzeren Antwortstil. Hör auf, “kurz halten” und “ohne Aufzählung” in deine Prompts zu schreiben.

Wenn du Microsoft 365 Copilot Business- oder Enterprise-Admin bist — der Upgrade ist nicht optional. Du kannst Tenants nicht auf GPT-5.3 pinnen. Das Microsoft 365 Admin Center spiegelt das neue Modell unter Health → AI-Deployment-Status. Wenn du Workflows ausgerollt hast, die von spezifischen GPT-5.3-Eigenschaften abhingen (Antwortlänge, Refusal-Muster), ist jetzt der Moment, sie nachzutesten.

Wenn du Copilot Studio entwickelst — du hast echte Wahl. Die Modell-Dropdown im Agent-Einstellungen → Modell listet GPT-5.5 Chat jetzt neben GPT-5.3 und der GPT-5.5-Reasoning-Variante. Für die meisten Alltags-Agents (Q&A, Dokumenten-Zusammenfassung, Workflow-Trigger) ist GPT-5.5 Chat der neue Standard. Für sensibles Reasoning bleibt GPT-5.5 Reasoning langsamer, aber gründlicher. Neue Agents, die du diese Woche baust, sollten auf GPT-5.5 Chat starten, außer du hast einen spezifischen Grund dagegen.

Wenn du IT-Einkäufer:in bist und Copilot vs. Alternativen evaluierst — der Abstand zwischen Copilot und der ChatGPT-Web-App ist gerade kleiner geworden. Beide laufen jetzt auf demselben Unterbau-Modell. Copilot gewinnt weiter bei dokumentengebundenen Workflows (kann deine Dateien lesen); ChatGPT gewinnt weiter beim Roh-Modellzugang. Die Preisrechnung ist unverändert: M365 Copilot Enterprise kostet 30 €/Nutzer/Monat, Business 21 €/Nutzer/Monat (bis 300 Sitze), beide oberhalb einer berechtigten Microsoft-365-Lizenz.

Wenn du den Betriebsrat im Boot hast — das Upgrade ist kein neuer Mitbestimmungstatbestand. Falls die Copilot-Einführung selbst noch nicht abgeschlossen ist, lass die GPT-5.5-Verfügbarkeit nicht zum neuen Verzögerungsgrund werden. Es ist ein Modellwechsel, kein neuer Service.

Was es nicht kann

  • Es wird keine externen Quellenangaben mehr halluzinieren — leider nicht. Das Modell ist ehrlicher über sein internes Wissen und vorsichtiger beim Überklaim, aber es wird weiterhin selbstbewusst URLs erfinden, die nicht existieren, oder Zitate falschen Personen zuschreiben. Die “Quellen prüfen”-Regel gilt unverändert.
  • Es liest deinen privaten SharePoint nicht magisch. Copilots Grounding in deine Organisationsdaten wird durch Microsoft-Graph-Berechtigungen gesteuert, nicht durch das Modell. GPT-5.3 → GPT-5.5 erweitert nicht, was Copilot sehen darf.
  • Es eliminiert Rate Limits nicht. M365 Copilot Basic-Nutzer auf X melden diese Woche, dass sie abends in Throttle-Caps laufen. Enterprise-Lizenzen erhalten Priority-Routing; Basic-Nutzer nicht.
  • Es bringt keinen Modell-Toggle in Word oder Outlook. Wenn du GPT-5.3 mit GPT-5.5 vergleichen willst, ist Copilot Studio der einzige Ort, an dem die Auswahl existiert.
  • Es löst nicht das “falsches Dokument”-Problem. Copilot beantwortet in langen Teams-Threads gelegentlich eine Frage aus der falschen angehängten Datei. Das ist ein Retrieval-Thema, kein Modell-Thema.

Das Fazit

Die Schlagzeile lautet: GPT-5.5 Instant ist diese Woche im Microsoft 365 Copilot gelandet — ohne Migrationsarbeit, ohne IT-Reibung und mit einer spürbaren Qualitätssteigerung bei Alltagsaufgaben. Die unter-der-Schlagzeile-Nachricht: Der Upgrade kommt auf denselben Retrieval-, Grounding- und Quellen-Unterbau, der seit Copilot-Start die eigentliche Engstelle für Enterprise-Copilot ist. Das Modell ist ein echtes Upgrade. Das Produkt drum herum ist dasselbe.

Für die meisten ist die Antwort: Nutze Copilot weiter wie bisher, vertraue den kürzeren Antworten, füg mehr Screenshots in PowerPoint ein, und höre nicht auf, externe Quellen zu prüfen.

Wenn du tiefer einsteigen willst, wie du mehr aus dem Microsoft 365 Copilot herausholst — jetzt, da das Modell dahinter stärker ist — deckt unser ChatGPT-Meisterkurs die sieben Workflows ab, die vom neuen Modell am meisten profitieren: vom Excel-zu-PowerPoint-Übergang über Outlook-Triage-Prompts bis zur Teams-Meeting-Summary-Vorlage, die mit GPT-5.5 Chat den klarsten Output liefert.

Quellen

Echte KI-Skills aufbauen

Schritt-für-Schritt-Kurse mit Quizzes und Zertifikaten für den Lebenslauf