Depuis le 5 mai 2026, ce n’est plus le même modèle qui tourne derrière ChatGPT. Dans le sélecteur, ça affiche toujours « Instant » — mais en dessous, c’est désormais GPT-5.5 Instant. Selon les chiffres qu’OpenAI a publiés (et que le Journal du Geek et le Blog du Modérateur ont relayés en français) : 52,5 % d’hallucinations en moins sur les sujets sensibles (médecine, droit, finance), 30,2 % de mots en moins pour dire la même chose, fini les emojis à tout-va, et la boucle « voulez-vous que je… ? » disparaît presque complètement.
Si tu utilises ChatGPT au quotidien, tu sens la différence dès le premier jour. Des réponses plus courtes. Moins de gras autour du steak. Le modèle va droit au but.
Le hic : beaucoup de prompts qui fonctionnaient nickel avec 5.3 donnent maintenant de moins bons résultats avec 5.5. Pas parce que le modèle est plus bête — mais parce qu’il prend tes instructions plus à la lettre et plus court. Tes vieux prompts étaient calibrés pour un modèle plus bavard.
Voici une checklist de migration. Douze prompts que la plupart d’entre nous envoient à ChatGPT chaque semaine, réécrits pour le nouveau modèle par défaut, avec une note rapide sur ce qui change et pourquoi.
Ce qui a vraiment changé
Pour la version technique complète, l’annonce officielle d’OpenAI ou le récap de Presse-Citron font le job. Pour ce qui compte côté prompt, c’est quatre choses :
- Le ton est sec par défaut. Les vieilles consignes du genre « sois concis », « va droit au but », « sans introduction » sont devenues redondantes. Le modèle le fait déjà. Tu peux les enlever — c’est des tokens gaspillés.
- Fini les préambules « étape par étape ». GPT-5.3 commençait la moitié des réponses par « Excellente question ! Laisse-moi réfléchir étape par étape… ». Le nouveau modèle attaque direct. Si ton prompt force « réfléchis à voix haute étape par étape », tu paies en output qui ne sert plus à rien.
- Le panneau « Sources mémoire » est nouveau — et incomplet. Quand ChatGPT personnalise une réponse à partir d’une mémoire sauvegardée, d’un chat précédent ou d’une app connectée (Gmail, Drive), une petite icône « i » indique quelles sources ont été utilisées. Important : le panneau montre certaines sources, pas toutes. Si tu rédiges des prompts qui supposent que ChatGPT « se souvient » de ce que tu lui as dit hier, le panneau sert d’audit rapide.
- Les prompts de persona pèsent moins. « Tu es un consultant senior avec 20 ans d’expérience… » fonctionne encore, mais le modèle ôte le déguisement mentalement et répond. Les longues mises en rôle sont des tokens perdus.
Le principe derrière les douze réécritures : dis le résultat que tu veux, pas comment le modèle doit y arriver.
Les 12 réécritures
1. « Explique-moi un concept »
Avant (style 5.3) :
« Tu peux m’expliquer l’intrication quantique comme à un adulte curieux sans formation en physique ? Utilise des analogies, évite le jargon, fais ça étape par étape. Rends-le captivant. »
Maintenant (style 5.5) :
« Explique l’intrication quantique pour un non-physicien. Une analogie, puis la règle qu’elle illustre. 200 mots. »
Ce qui change : retiré « captivant » (5.5 ne meuble pas), retiré « étape par étape » (la structure vient toute seule), ajouté un quota de mots (5.5 respecte les longueurs nettement).
2. « Résume cet article »
Avant :
« S’il te plaît, lis l’article ci-dessous et fais-en un résumé approfondi. Inclus l’argument principal, les points d’appui et les contre-arguments. En puces, et exhaustif. »
Maintenant :
« Résume cet article en 5 puces : thèse, top 3 des points d’appui, objection la plus forte qu’il ignore. [coller] »
Ce qui change : « approfondi » et « exhaustif » allongeaient la réponse avant ; maintenant ils la ralentissent juste. Une structure inline donne un output net.
3. « Réécris cet e-mail »
Avant :
« Je colle un e-mail ci-dessous. Tu peux le réécrire pour qu’il sonne plus pro mais reste chaleureux ? Concis mais pas trop court. Ton ajusté pour que ça ne sonne pas IA. Garde tous les détails importants. »
Maintenant :
« Réécris cet e-mail. Pro, chaleureux, sans tics d’IA. Garde tous les chiffres et dates. [coller] »
Ce qui change : chaque adjectif dans le vieux prompt était une roue de secours. Le nouveau modèle lit les roues de secours comme du bruit. « Sans tics d’IA » fonctionne maintenant comme instruction directe.
4. « Donne-moi du feedback »
Avant :
« Voici mon brouillon. Tu peux me donner un feedback honnête et constructif sur la structure, la clarté et la force de persuasion ? Pas juste flatter — pointe ce qui ne marche pas. Sois précis. »
Maintenant :
« Critique ce brouillon. Trois choses qui marchent, trois qui ne marchent pas. Sans détour. [coller] »
Ce qui change : 5.5 est vraiment direct quand on le demande clairement. 5.3 avait besoin de trois phrases d’autorisation. C’est la plus grosse amélioration pour qui édite des textes.
5. « Compare X et Y »
Avant :
« Tu peux me faire un comparatif détaillé de Notion et Obsidian pour la prise de notes perso ? Prix, fonctionnalités, ergonomie, et lequel est mieux selon le profil utilisateur. Tableau si pertinent. »
Maintenant :
« Notion vs Obsidian pour les notes perso. Tableau comparatif : prix, fonctionnalités, ergonomie. Ensuite ta reco en une phrase. »
Ce qui change : 5.5 monte un tableau de lui-même quand c’est pertinent — pas besoin de le suggérer. La reco en une phrase à la fin force une décision plutôt qu’une liste de pour/contre.
6. « Aide-moi à brainstormer »
Avant :
« J’ai besoin d’idées de podcast sur la mode éthique. Génère une large palette d’idées — formats variés, angles variés, audiences variées. Vise au moins 20 idées et ne filtre pas — la quantité prime. »
Maintenant :
« 20 idées de podcast sur la mode éthique. Mix de formats (interview/solo/narratif). Marque chaque idée avec son public cible. Sans préambule. »
Ce qui change : « Sans préambule » est devenu ma consigne de migration préférée. 5.5 la comprend.
7. « Joue le rôle de X »
Avant :
« Je veux que tu joues le rôle d’un product manager senior avec 15 ans d’expérience dans une grosse boîte tech. Tu passes en revue ma roadmap produit. Sois critique, pose les questions qui fâchent, ne te retiens pas. Voici la roadmap : [coller] »
Maintenant :
« Stress-test cette roadmap produit. Les trois hypothèses les plus faibles, deux risques qu’elle oublie, un pari vraiment contre-intuitif. [coller] »
Ce qui change : la mise en rôle est devenue du superflu. Le modèle assume le rôle implicitement quand la tâche en a la forme (stress-test, critique, audit). Saute le préambule, va droit à la structure du résultat.
8. « Extrais des données de ce texte »
Avant :
« S’il te plaît, extrais soigneusement les informations suivantes du texte ci-dessous : noms d’entreprises, montants en dollars, dates, statistiques citées. Format liste propre, n’oublie rien. Voici le texte : [coller] »
Maintenant :
« Extraire du texte : noms d’entreprises, montants, dates, statistiques citées. JSON. Champ manquant → null, n’invente pas. [coller] »
Ce qui change : 5.5 est nettement meilleur sur l’output structuré. Demande du JSON, tu obtiens du JSON propre. « N’invente pas » ferme la porte aux hallucinations sur les champs vides.
9. « Planifie quelque chose »
Avant :
« Aide-moi à planifier un voyage de 5 jours à Lisbonne pour un couple de trentenaires qui aime la bouffe, le design et les quartiers tranquilles. On veut pas un planning surchargé — laisse de la place pour flâner. Jour par jour, par tranches matin/après-midi/soir. »
Maintenant :
« Itinéraire 5 jours à Lisbonne pour un couple de trentenaires. Centres d’intérêt : bouffe, design, rues tranquilles. Rythme : lent. Jour par jour, matin/après-midi/soir. Une reco de réservation par jour. »
Ce qui change : les contraintes molles (« on veut pas un planning surchargé ») remplacées par des étiquettes de style (« Rythme : lent »). Le nouveau modèle parse les étiquettes plus vite que des phrases complètes.
10. « Débugue mon code »
Avant :
« Voici mon script Python. Il doit récupérer des données depuis une API et les écrire dans un CSV, mais j’ai une erreur. Tu peux y jeter un œil attentif, m’expliquer ce qui pourrait clocher, et proposer un fix ? »
Maintenant :
« Débugue. Objectif : API → CSV. Erreur : [coller erreur]. Code : [coller code]. Donne-moi : cause racine, ligne à changer, snippet corrigé. »
Ce qui change : déclarer l’objectif en haut, l’erreur avant le code, et la structure de sortie attendue produit une réponse propre au lieu d’un dialogue interactif.
11. « Recherche sur un sujet »
Avant :
« Tu peux faire le point sur le marché des crédits carbone ? Je veux savoir qui sont les acteurs majeurs, les controverses récentes, l’évolution réglementaire et où va le secteur. Approfondi mais accessible. »
Maintenant :
« Marché des crédits carbone, état des lieux. À couvrir : 5 acteurs majeurs (une ligne chacun), 2 controverses récentes, 1 évolution réglementaire, 1 prédiction. Cite tes sources quand tu peux. »
Ce qui change : imposer un nombre par section (5/2/1/1) donne quelque chose d’éditable. « Approfondi mais accessible » produisait 1 500 mots avant ; le nouveau prompt donne 400 mots dans lesquels tu peux creuser.
12. « Écriture créative »
Avant :
« Écris une nouvelle courte sur une bibliothécaire qui découvre un livre qui s’écrit tout seul. Atmosphérique, littéraire, environ 800 mots. Avec des détails sensoriels et une fin inattendue. »
Maintenant :
« Nouvelle courte, 800 mots. Prémisse : une bibliothécaire découvre un livre qui s’écrit tout seul. Ton : littéraire, atmosphérique. Règle dure : la fin doit subvertir le twist évident. »
Ce qui change : « fin inattendue » produisait quasi à coup sûr le twist évident. « Subvertir le twist évident » — formulé comme règle dure — t’emmène vraiment ailleurs. Utilise « Règle dure : » partout où tu veux qu’une contrainte tienne.
Le motif en une phrase
Les vieux prompts étaient riches en consignes et pauvres en résultat. Ils disaient au modèle comment penser, comment formater, comment se comporter. Les nouveaux prompts doivent être riches en résultat et pauvres en consigne. Dis ce que la réponse doit être — pas comment le modèle doit y arriver.
Le format ressemble à :
[verbe d’action] [objet]. [contrainte de structure]. [ton ou portée]. [règles dures si besoin].
Quatre fragments courts au lieu d’un paragraphe.
Ce que la recherche en profondeur ajoute (les chiffres absents des gros titres)
Le « 52,5 % d’hallucinations en moins » d’OpenAI est réel mais étroit. En croisant les sources indépendantes, le tableau change :
- Le benchmark AA-Omniscience d’Artificial Analysis mesure GPT-5.5 à 57 % d’exactitude factuelle — le plus haut score jamais enregistré pour un modèle — mais avec un taux d’hallucination de 86 % quand le modèle ne connaît pas la réponse. À comparer : Claude Opus 4.7 à 36 %, Gemini 3.1 Pro à 50 %. Lecture entre les lignes : GPT-5.5 est plus sûr de lui qu’il ne devrait l’être. La baisse d’hallucinations annoncée par OpenAI vaut pour des scénarios ciblés à fort enjeu ; en dehors de ce couloir, le modèle invente plus souvent que ses rivaux dès qu’il croise un trou de connaissance.
- L’échelle du rollout est plus grande qu’on ne le pense. ChatGPT a franchi 900 millions d’utilisateurs actifs hebdomadaires en février 2026 — le double des 400 millions un an plus tôt. Un seul changement de modèle par défaut percute d’un coup des centaines de millions de workflows. C’est pour ça qu’un changement d’UX « mineur » comme Memory Sources a un vrai impact.
- Les utilisateurs API paient littéralement le double. GPT-5.3 Instant est à 1,75 $/M de tokens en entrée + 14 $/M en sortie. GPT-5.5 (endpoint API général) est à 5 $/M en entrée + 30 $/M en sortie. L’efficacité tokens compense en partie — les réponses ~30 % plus courtes ramènent le coût effectif par tâche autour de 20 % de plus — mais le prix catalogue a doublé.
- Memory Sources ouvre une surface d’attaque réelle. Début 2026, des chercheurs de Check Point ont divulgué un canal latéral DNS permettant d’exfiltrer silencieusement les données de conversation ChatGPT ; OpenAI a patché le 20 février 2026. Le head of research de Check Point l’a dit cash : « Les contrôles de sécurité natifs ne suffisent plus seuls. » Les utilisateurs Plus/Pro avec intégration Gmail activée ont introduit un nouveau vecteur de prompt injection contre la messagerie — raison pour laquelle de grandes banques et administrations ont restreint préventivement l’usage de ChatGPT en interne.
- Memory Sources n’est pas que de l’UX — c’est un outil de profilage longitudinal. Les chercheurs de PIA le décrivent comme « bien au-delà de la mémoire de session » : conversations passées, fichiers et Gmail connecté alimentent un profil persistant de croyances, de travail et de relations. La politique de confidentialité d’OpenAI permet d’utiliser le contenu « pour améliorer les services » — les données de mémoire flottent dans une zone légale floue entre « préférence utilisateur » et « entrée d’entraînement ». Côté RGPD, c’est l’endroit qui mérite l’attention de ton DPO.
Conseil de migration concret : traite Memory Sources comme opt-in pour les workflows sensibles, audite chaque semaine les mémoires sauvegardées via le panneau, et passe en Chat temporaire pour toute session impliquant des données client ou propriétaires.
Ce que ça ne fait pas (les limites honnêtes)
Une checklist de migration ne remplace pas un changement de personnalité. Quelques points à connaître :
- Le travail créatif long bénéficie toujours d’un brief plus riche. Un essai de 2 000 mots ou un chapitre de roman demande encore du contexte. La règle « prompt court » est pour le quotidien — e-mails, résumés, débugging, comparaisons. Pas pour l’écriture soutenue.
- Memory Sources cache une partie du contexte. Le panneau affiche ce qui a été utilisé, pas forcément tout ce qui a été considéré. Si une mémoire que tu n’attendais pas influence les réponses, le panneau peut ne pas la signaler. Vérifie directement tes mémoires sauvegardées dans les réglages.
- La plainte « il est devenu fainéant » existe vraiment. Certains utilisateurs disent que 5.5 coupe en plein milieu d’une tâche ou refuse de développer quand on insiste. Solution : re-prompter avec la contrainte manquante (« développe l’étape 3 avec un exemple de code »), pas argumenter avec le modèle.
- Les Custom Instructions comptent toujours. Si tu as configuré « About me » et « Response style » dans ChatGPT, ces réglages interagissent avec le nouveau default. Si ta personnalisation disait « sois détaillé et exhaustif », tu vas recevoir des réponses plus longues que la baseline. Fais l’audit.
- Les utilisateurs API de
gpt-5-3-instantne sont pas concernés. Ce rollout vise la surface ChatGPT grand public. Les devs qui appellent l’ancien modèle directement par API gardent l’ancien comportement.
Ce que ça veut dire pour toi
Si tu utilises ChatGPT en mode occasionnel (quelques prompts par jour) : rien à migrer. Note simplement quand un vieux prompt frotte, et applique le motif ci-dessus.
Si tu écris des prompts pour ton boulot (ops, marketing, ventes) : retravaille ta bibliothèque de prompts cette semaine. Coupe chaque instruction qui dit au modèle comment se comporter ; garde le résultat et la structure.
Si tu maintiens une bibliothèque de prompts pour ton équipe : publie un guide de style d’une page basé sur les réécritures plus haut. La régression la plus fréquente en qualité de prompts après un changement de modèle par défaut, c’est que les collègues recopient les vieux prompts entre eux. Prends de l’avance.
Si tu es dev et utilises l’API : ça ne te touche pas encore, mais ce comportement de brièveté arrivera vraisemblablement à gpt-5-5-instant côté API. Écris déjà au nouveau format pour ne pas migrer deux fois.
Si tu fais de la formation IA pour des non-techs (formation pro, école, association) : le nouveau modèle est sincèrement plus facile à enseigner. Les apprenants qui prenaient peur devant des murs de texte récupèrent maintenant des réponses courtes et scannables par défaut. Moins de désapprentissage à faire.
Le bilan
Le modèle est devenu plus malin, plus serré, et un peu plus ronchon. Tes prompts doivent suivre. Coupe la politesse de rembourrage, les consignes de méthode, le costume de personnage — garde le résultat et la structure. Résultat : des réponses plus rapides, moins de régénérations, et (ça mérite d’être dit) environ 30 % de tokens en moins, ce qui allège l’empreinte environnementale par requête, même si en utilisateur grand public tu ne le vois pas sur une facture.
Pour aller plus loin et bâtir une bibliothèque de prompts personnelle qui survit aux changements de modèles comme celui-ci, notre cours ChatGPT productivité couvre les motifs durables — les parties du prompting qui n’ont pas bougé sur les quatre derniers changements de modèle par défaut.
Sources
- OpenAI – GPT-5.5 Instant : annonce officielle
- Journal du Geek – Cette mise à jour gratuite transforme ChatGPT
- Blog du Modérateur – ChatGPT passe à GPT-5.5 Instant
- Presse-Citron – L’IA gratuite de ChatGPT corrige ses défauts
- Mac4Ever – ChatGPT passe à GPT-5.5 Instant
- Économie Matin – ChatGPT 5.5 Instant : tout mieux et plus vite
- Studeria – GPT-5.5 Instant : ce qui change pour les pros
- OpenAI Deployment Safety Hub – GPT-5.5 Instant System Card