Trois choses ont atterri cette semaine sur le bureau de tout responsable cybersécurité en France et au Québec — et il faut les lire ensemble.
Le 7 mai, OpenAI a livré GPT-5.5-Cyber en preview limité à des défenseurs vérifiés, en parallèle d’un déploiement plus large de GPT-5.5 sous le nouveau cadre “Trusted Access for Cyber”. Le modèle est la “version la plus permissive” qu’OpenAI ait jamais expédiée pour les workflows de cybersécurité — explicitement réglé pour refuser moins quand des défenseurs autorisés triagent des vulnérabilités, analysent des malwares, font de la rétro-ingénierie de binaires, construisent des détections ou valident des correctifs.
La même semaine, Claude Mythos d’Anthropic — le modèle frontier non publié — est resté accessible uniquement aux défenseurs via le consortium Project Glasswing. Glasswing rassemble plus de 40 organisations (AWS, Apple, Google, Microsoft, CrowdStrike, JPMorgan, Linux Foundation, Palo Alto Networks…) et se présente comme une réponse de politique technique : canaliser les capacités offensives de Mythos vers la défense coordonnée. Anthropic a été explicite : le modèle a découvert et exploité de manière autonome des vulnérabilités zero-day dans les principaux OS et navigateurs, et la décision a été de ne pas le publier.
Et le 6 mai, le directeur du NEC Kevin Hassett a confirmé que la Maison Blanche prépare une Executive Order qui imposerait une évaluation préalable des modèles d’IA — selon les mots de Hassett : “comme un médicament FDA”. Le programme CAISI du Department of Commerce s’est élargi cette semaine avec Google, Microsoft et xAI rejoignant OpenAI et Anthropic dans des accords volontaires d’évaluation pré-déploiement.
Trois fournisseurs. Trois postures de release. Une vague réglementaire qui peut tout compresser. Si tu pilotes la cybersécurité d’une organisation française, la question de ce trimestre n’est pas “quel fournisseur est meilleur” — c’est : comment cela passe-t-il la grille ANSSI, l’exigence SecNumCloud pour les OIV, et la répartition d’autorité AI Act en France ?
Ce qui est réellement disponible
Trois faits avant toute décision de procurement.
GPT-5.5-Cyber : livré, gaté, deux niveaux. OpenAI a structuré un produit à deux niveaux sous un seul cadre. Le premier — GPT-5.5 avec Trusted Access for Cyber — est le déploiement plus large : revue sécurisée de code, triage de vulnérabilités, analyse de malware, detection engineering, validation de correctifs. Le second — GPT-5.5-Cyber — est le modèle plus permissif pour red-teaming autorisé, pen-testing et exercices de validation contrôlés. Les deux sont gatés via le Trusted Access framework, qui exige vérification d’identité, attestation organisationnelle et (à partir du 1er juin) Advanced Account Security ou SSO résistant au phishing.
Plusieurs commentateurs francophones — relayant les évaluations de l’AI Safety/Security Institute britannique — soulignent que GPT-5.5 atteint désormais un niveau comparable à Mythos sur des tâches cyber expertes, ce qui positionne GPT-5.5-Cyber comme le pendant défense de Mythos.
Claude Mythos : non disponible publiquement, accès via Project Glasswing. La posture d’Anthropic est différente par design. Le modèle est si capable en découverte de vulnérabilités qu’Anthropic a refusé le release large. Les défenseurs y accèdent via Glasswing, actuellement focalisé sur la découverte et remédiation de vulnérabilités dans des systèmes fondamentaux avant publication large. Pas d’URL de waitlist publique ; l’accès se fait par partenariat direct avec Anthropic ou membership dans une organisation participante.
L’EO de la Maison Blanche : rédigée, non signée. Les commentaires de Hassett mercredi sont le signal le plus concret à ce jour. Forme probable : évaluations pré-déploiement type FDA conduites par un groupe de travail piloté par CAISI. Le NEC, la NSA, l’ODNI et l’Office of the National Cyber Director auraient un droit de regard sur les modèles type Mythos ou GPT-5.5-Cyber. Date d’effet incertaine ; le texte est en cours.
La doctrine ANSSI avant la décision
Voici où le contexte français diverge nettement de la couverture anglo-saxonne. L’ANSSI a publié début 2026 deux documents critiques :
- Un rapport sur “L’intelligence artificielle générative face aux attaques informatiques” — qui établit le caractère à double usage des LLM (défense/offense) et documente l’usage croissant par des acteurs étatiques et criminels pour augmenter le volume, la diversité et l’efficacité des attaques.
- Un guide de “Recommandations de sécurité pour un système d’IA générative” — qui encadre concrètement le déploiement.
Plus important encore : la position opérationnelle de l’ANSSI sur les “agents IA autonomes” est très prudente. Les bulletins CERT-FR 2026 indiquent que l’ANSSI déconseille fortement — voire interdit — le déploiement d’agents IA autonomes type “assistants offensifs” sur les postes de travail ou SI de production des OIV/OSE, sauf dans des environnements très cloisonnés avec des mesures compensatoires rigoureuses.
Pour les OIV (Opérateurs d’Importance Vitale) et OSE (Opérateurs de Services Essentiels), l’ANSSI promeut une approche “usage défensif cadré” :
- LLM accessibles via des SI maîtrisés et journalisés
- Filtrage des prompts et des sorties
- Interdiction de confier des tâches de décision autonome ou d’exécution d’actions réseau non supervisées à un agent IA
Conséquence pour Dreaming + Mythos : pour un OIV/OSE, l’auto-optimisation entre sessions, l’exécution offensive autonome et l’absence de supervision humaine continue posent trois drapeaux rouges directs que la doctrine ANSSI a déjà cadrés.
SecNumCloud : la deuxième gate
L’ANSSI maintient la qualification SecNumCloud comme référentiel de sécurité pour les “clouds de confiance”. L’élément critique : l’immunité vis-à-vis des lois extraterritoriales non-européennes. L’État français recommande l’usage de SecNumCloud pour les données sensibles du secteur public et, de plus en plus, pour les OIV/OSE et entités soumises à NIS2.
Conséquence directe pour GPT-5.5-Cyber et Mythos pour des OIV français :
- Localisation/hébergement non SecNumCloud (clouds US, soumis à loi extraterritoriale type CLOUD Act) — bloquant pour la production OIV.
- Absence de qualification ANSSI — bloquant pour les workloads sensibles couverts par NIS2.
L’usage en production OIV se cantonne donc à des espaces R&D, red-team et SOC “miroir”. Pour les workloads en production, la trajectoire pousse vers des solutions IA souveraines tournant sur SecNumCloud. L’offre OUTSCALE + Mistral en SecNumCloud 3.2 existe déjà et se positionne explicitement pour ces cas d’usage sensibles.
Pour beaucoup d’équipes cyber d’OIV, le choix opérationnel n’est donc pas “GPT-5.5-Cyber vs Mythos” — c’est : Mistral souverain SecNumCloud pour la production, GPT-5.5-Cyber pour le R&D et certains red-teams sous environnement contrôlé.
NIS2, loi Résilience et répartition d’autorité AI Act
La directive NIS2 (UE 2022/2555) élargit le périmètre à 18 secteurs, distingue entités essentielles (EE) et importantes (EI), et impose 10 grandes mesures de cybersécurité (article 21). En France, la transposition se fait via la “loi Résilience” — qui confie formellement à l’ANSSI le rôle d’autorité nationale compétente, renforce ses pouvoirs de contrôle/sanction et impose l’enregistrement et la supervision des entités régulées. Plafonds d’amende : jusqu’à 10 M€ ou 2 % du CA mondial pour les entités essentielles.
Un OIV/OSE qui voudrait exploiter GPT-5.5-Cyber ou Mythos devra démontrer que ces usages répondent aux exigences de l’article 21 — gouvernance, gestion des risques, plan de continuité, sécurité de la chaîne de fourniture — ce qui ramène directement au choix d’infrastructure (SecNumCloud) et à la gouvernance IA (AI Act).
L’AI Act met en place un régime par niveaux de risque pour l’UE. En France, plusieurs autorités sont compétentes selon les angles :
- CNIL : systèmes impliquant données personnelles et biométrie
- ANSSI : aspects cybersécurité
- ACPR : finance
- HAS / ANSM : santé
- ARCOM : contenus
- DGCCRF : pratiques commerciales
L’AI Act est en train d’être traduit en exigences concrètes via des guides et probablement un futur “label IA de confiance” — où l’on retrouve à la même table CNIL, ANSSI, ACPR, DINUM et de grands acteurs bancaires comme BPCE ou Société Générale. Cela préfigure le fonctionnement d’une future entité de coordination type AESIA-français — moins centralisée que la version espagnole, mais avec le même principe.
Pour un LLM cyber-permissif : la conformité AI Act impliquerait simultanément la CNIL (si données personnelles), l’ANSSI (sécurité du modèle et de l’infra), l’ACPR (si finance) et potentiellement une entité de coordination nationale pour l’enregistrement/notification du modèle comme “AI system” à haut risque.
Le secteur bancaire : ACPR + AMF
L’ACPR (Banque de France) supervise la banque et l’assurance et participe aux réflexions G7 sur IA et cybersécurité, insistant sur la gestion de la menace IA dans le système financier mondial. Dans le contexte AI Act, l’ACPR est identifiée comme autorité compétente pour les systèmes d’IA utilisés dans la finance, aux côtés de la CNIL et de l’ANSSI — ce qui signifie que les banques françaises devront gérer une double conformité IA/cyber et prudentielle.
Les grands groupes bancaires français — BNP Paribas, Société Générale, Crédit Agricole, BPCE — accélèrent fortement sur l’IA tout en renforçant leur gouvernance. Société Générale a par exemple créé “SocGen”, une entité dédiée à l’exploitation à grande échelle de l’IA, avec gouvernance centralisée.
Pour les SOC bancaires français (BNP Paribas SOC, SOC SG, Crédit Agricole), l’usage de modèles très cyber-permissifs comme GPT-5.5-Cyber ou Mythos devra être raccord avec :
- Exigences ACPR de résilience opérationnelle
- Gestion des risques IT (DORA en parallèle pour les acteurs européens)
- Supervision humaine des décisions
- Trace complète des modèles et données
GPT-5.5-Cyber est probablement classifié comme outil spécialisé de cyberdéfense, pas pour décisions de business, mais l’évaluation tiers et la résilience opérationnelle l’élèvent toujours sous scrutiny.
Le cadre Q3 en 4 axes pour les équipes francophones
Axe 1 : Disponible aujourd’hui vs plus tard vs sujet à examen gouvernemental
Aujourd’hui : GPT-5.5 avec Trusted Access for Cyber. Postuler, se faire vérifier, déployer — uniquement pour des workloads non-OIV ou en environnement strictement cloisonné.
Plus tard (90–180 jours) : Claude Mythos via partenariat Glasswing, ou son successeur public éventuel. Le pattern d’Anthropic suggère une GA après plusieurs mois de déploiement partenaire.
Sujet à examen gouvernemental : ce que l’EO formalise + l’évaluation AI Act + la position de l’ANSSI sur les agents IA autonomes. Pour les acteurs régulés et les OIV, le coût d’un commitment dans la mauvaise direction est élevé.
Axe 2 : Profil de permissivité
GPT-5.5-Cyber : explicitement réglé pour workflows défenseurs. Tuning d’OpenAI baisse les taux de refus sur identification de vulnérabilités, analyse de malware, rétro-ingénierie de binaires, detection engineering, validation de correctifs.
Claude Mythos : généraliste avec capacité cyber extrême. Mythos n’est pas réglé pour défenseurs. C’est un modèle frontier généraliste qui se trouve très bon pour trouver des vulnérabilités. Plafond de capacité plus haut que GPT-5.5-Cyber, mais surface de friction pour workflows défenseurs aussi plus haute.
L’EO ajouterait un troisième profil : vetted-permissive. Un modèle ne serait déployable pour des workflows cyber-permissifs qu’après évaluation pré-déploiement.
Axe 3 : Posture procurement et audit
Trusted Access framework : vérification d’identité, attestation organisationnelle, Advanced Account Security à partir du 1er juin. Bonne adéquation avec SOC 2, ISO 27001, ISO 27002. Pour les OIV, ne se substitue pas à SecNumCloud.
Partenariat Project Glasswing : contrat sur mesure, due-diligence plus approfondi, cycle plus long. Si tu es dans un grand compte CAC 40 avec relation Anthropic existante, le chemin est ouvert. Sinon, pas — pas encore.
EO + AI Act + qualifications ANSSI ajouteraient une couche d’évaluation gouvernementale pré-déploiement. Cela peut simplifier certains angles de conformité mais étend les délais.
Axe 4 (FR-spécifique) : Souveraineté et SecNumCloud
Cette dimension manque totalement dans la couverture US. Pour la France :
- Workloads OIV/OSE/données régaliennes : SecNumCloud + solution souveraine (Mistral/OUTSCALE) — pas GPT-5.5-Cyber ni Mythos via Glasswing.
- Workloads non sensibles (revue de code sur repos open-source, detection engineering sans données client, tests d’effet d’entraînement) : GPT-5.5-Cyber reste pratique.
- Mixe les pistes explicitement. Ce mapping est l’exigence documentaire centrale — pas “on utilise GPT-5.5-Cyber” ou “on utilise Mythos”, mais “GPT-5.5-Cyber pour X, Mistral souverain SecNumCloud pour Y, avec mapping clair sur la doctrine ANSSI et l’article 21 NIS2”.
Cinq patterns “postuler cette semaine” par profil d’équipe
1. Red Team interne (hors OIV) avec Trusted Access prêt
Postule pour le niveau supérieur GPT-5.5-Cyber cette semaine. Lance un pilote 30 jours sur le prochain engagement autorisé. Documente les taux de refus contre ton scope.
2. Lab de recherche en vulnérabilités avec relation Anthropic
Demande l’accès Mythos via Glasswing — partnership existant, Bug Bounty, recherche preview. GPT-5.5-Cyber comme stop-gap est OK pour la fenêtre.
3. SOC d’OIV sous doctrine ANSSI
Tiens-toi à un déploiement R&D/red-team cloisonné uniquement. Pour la production, attends le futur “label IA de confiance” + une qualification SecNumCloud/Mistral. Documente parallèlement le mapping article 21 NIS2 et le plan de notification CERT-FR.
4. Cabinet pen-test avec exigences multi-clients
GPT-5.5-Cyber + capture audit-trail par engagement. Modèle de business permission-bounded par autorisation client ; le Trusted Access aide à attester du scope. Mythos via Glasswing n’est pas un fit propre tant que les garanties multi-tenant ne sont pas publiées.
5. SOC bancaire / assurance / régulé
Tiens-toi pour l’EO + clarification ACPR + AI Act. Procurement pré-EO est une option réelle, mais nécessitera probablement une re-évaluation. Risque de commitment dans la mauvaise direction est élevé ; coût d’attendre 60–90 jours est faible. Utilise la fenêtre pour bâtir la capacité interne d’évaluation pré-déploiement, le mapping ACPR/AI Act, et entamer des conversations pilotes avec OpenAI et Anthropic — et avec Mistral pour la partie production souveraine.
L’anti-pattern “ne pas déployer”
Utiliser un modèle cyber-permissif sur un stack qui n’a pas imposé input-attribution, audit-trail par utilisateur et permission-scoping par tool-call.
Le Trusted Access présume que tu as ces contrôles. Sinon, la posture lower-refusal crée des trous d’audit-trail qui apparaîtront dans ta prochaine revue ANSSI, ton prochain audit ACPR, ta prochaine forensique post-incident.
Le fix avant le déploiement : chaque appel cyber-permissif doit logger l’identité appelante, l’outil/scope, le prompt, la réponse, le contexte d’engagement. Ce travail va avant le premier appel, pas après le premier incident. Et pour les OIV, ce logging doit aussi répondre aux exigences de SecNumCloud et de l’article 21 NIS2.
Quatre signaux pour les 30 prochains jours
La sortie formelle de l’EO. Hassett a dit n’importe quel jour ce mois-ci. Le texte déterminera si “vetting” est FDA-style ou NIST-style.
Disclosure timeline GA Mythos par Anthropic. Quand Anthropic publie une date, l’horizon de planification de la branche cyber bouge.
Premières données de taux de refus Trusted Access OpenAI. OpenAI publiera probablement après 30+ jours d’usage. C’est le signal empirique sur la permissivité.
Position ANSSI / CERT-FR. Une mise à jour de la doctrine ANSSI sur les agents IA autonomes est probable au Q3 — soit comme bulletin CERT-FR, soit comme guide complémentaire au rapport “L’intelligence artificielle générative face aux attaques informatiques”. Ce sera la grille pratique pour tous les OIV/OSE français — et la référence pour l’agence de coordination AI Act française qui se dessine.
Ce que ça ne corrige pas
Ça ne remplace pas ta pipeline de formation des défenseurs. Un modèle cyber-permissif entre les mains d’un analyste junior sans supervision est un moyen plus rapide de faire des erreurs, pas plus sûr.
Ça ne se substitue pas au scoping correct de l’engagement. Un pen-test avec scope d’autorisation incorrect reste illégal même si l’IA a aidé à scoper.
Ça ne décide pas la politique pour toi. Si ton organisation n’a pas tranché sur l’IA en cyber — pour des raisons de résidence de données, d’export-control, d’assurance — aucune comparaison de capacité ne résout ça. Pour les OIV, la décision est largement préformatée par la doctrine ANSSI.
Ça ne prédit pas le comportement des régulateurs. L’EO est rédigée, pas signée. L’ANSSI peut durcir sa doctrine. Construis pour la révisabilité.
La conclusion
Trois pistes produit et une vague réglementaire convergent en Q3. GPT-5.5 avec Trusted Access for Cyber est le choix déployable aujourd’hui pour la plupart des équipes défenseuses non-OIV. GPT-5.5-Cyber est la variante plus permissive pour red teams vérifiés. Mythos via Glasswing est le plafond de capacité pour les plus grands labs de recherche. La Maison Blanche, l’AI Act et la doctrine ANSSI peuvent tout reformer dans les 60–90 prochains jours.
Pour la plupart des équipes françaises non-OIV : postule pour Trusted Access cette semaine, durcis ton audit-trail avant le premier prompt cyber-permissif, documente ton mapping article 21 NIS2, et traite tout commitment de procurement comme révisable.
Pour les OIV/OSE : trace explicitement la frontière R&D vs production. Production = Mistral souverain SecNumCloud. R&D et red-team cloisonnés = GPT-5.5-Cyber ou (si l’accès est ouvert) Mythos via Glasswing. Cette séparation est ta réponse défendable à l’audit ANSSI et à la grille AI Act française.
Si tu veux aller plus loin sur la conformité IA Act et la cybersécurité IA opérationnelle — bâtir l’audit-trail, scoper correctement l’autorisation, durcir le SOC contre le nouveau profil de permissivité — regarde notre cours sur la cybersécurité IA et le cours sur la conformité IA Act pour les entreprises.
Sources
- Scaling Trusted Access for Cyber with GPT-5.5 and GPT-5.5-Cyber — OpenAI
- ANSSI : “L’intelligence artificielle générative face aux attaques informatiques”, 2026
- ANSSI : “Recommandations de sécurité pour un système d’IA générative”, 2026
- Bulletins CERT-FR 2026 sur agents IA autonomes
- SecNumCloud : référentiel pour les “clouds de confiance” — ANSSI
- OUTSCALE + Mistral en SecNumCloud 3.2 — Intelligence Privée
- NIS2 Article 21 et loi Résilience en France — Aventris
- AI Act et répartition d’autorité française : CNIL/ANSSI/ACPR/HAS — Leto
- ACPR Banque de France : supervision IA en finance
- Société Générale crée “SocGen” entité IA dédiée — Ouest-France
- Claude Mythos Preview — red.anthropic.com
- Anthropic Project Glasswing
- Vetting EO Maison Blanche, type FDA — Insurance Journal
- Live blog: Code w/ Claude 2026 — Simon Willison