Tres cosas aterrizaron esta semana sobre el escritorio de cualquier responsable de ciberseguridad en España y Latinoamérica. Y hay que leerlas juntas.
El 7 de mayo, OpenAI lanzó GPT-5.5-Cyber en preview limitado a defensores verificados, junto con la implantación más amplia de GPT-5.5 bajo el nuevo marco “Trusted Access for Cyber”. El modelo es la “versión más permisiva” que OpenAI ha enviado para flujos de trabajo de ciberseguridad — ajustado explícitamente para rechazar menos cuando defensores autorizados triagean vulnerabilidades, analizan malware, hacen ingeniería inversa de binarios, construyen detecciones o validan parches.
Esa misma semana, Anthropic mantuvo a Claude Mythos — el modelo frontier no publicado — accesible solo a defensores bajo el consorcio Project Glasswing. Glasswing agrupa a más de 40 organizaciones (AWS, Apple, Google, Microsoft, CrowdStrike, JPMorgan Chase, Linux Foundation, Palo Alto Networks, etc.) y se enmarca como respuesta de política técnica: canalizar las capacidades ofensivas de Mythos hacia defensa coordinada. Anthropic ha sido explícita: el modelo encontró miles de zero-days en sistemas operativos y navegadores, y la decisión fue no publicarlo.
Y el 6 de mayo, el director del NEC Kevin Hassett confirmó que la Casa Blanca prepara una Executive Order que requeriría evaluación previa al despliegue de modelos de IA — palabras de Hassett: “como un medicamento de la FDA”. El programa CAISI del Departamento de Comercio se expandió esa misma semana con Google, Microsoft y xAI uniéndose a OpenAI y Anthropic en acuerdos voluntarios de evaluación previa.
Tres proveedores. Tres posturas de release. Una ola regulatoria que puede comprimir todo el calendario. Si lideras ciberseguridad en España o LatAm, la pregunta del trimestre no es “qué proveedor es mejor” — es: ¿cómo encaja esto con AESIA, INCIBE, el ENS, NIS2 transpuesto y los requisitos de gobernanza de IA del Banco de España?
Qué está realmente disponible
Tres hechos antes de cualquier decisión de compra.
GPT-5.5-Cyber: enviado, controlado, dos niveles. La estructura de OpenAI es un producto de dos niveles bajo un solo marco. El primero — GPT-5.5 con Trusted Access for Cyber — es la implantación más amplia: revisión segura de código, triage de vulnerabilidades, análisis de malware, detection engineering, validación de parches. El segundo — GPT-5.5-Cyber — es el modelo de mayor permisividad pensado para red teaming autorizado, pen testing y ejercicios controlados de validación. Ambos están controlados por el marco Trusted Access, que requiere verificación de identidad, atestación organizacional y (a partir del 1 de junio) Advanced Account Security o SSO resistente a phishing.
En el ecosistema hispanohablante ya había cobertura de GPT-5.4-Cyber (lanzado el 14 de abril 2026) como modelo “cyber-permissive” con umbral de rechazo reducido. GPT-5.5-Cyber se posiciona como evolución de ese enfoque, extendido a equipos de seguridad de grandes organizaciones bajo acuerdos específicos. La lectura regional: una carrera regulada — acceso restringido, supervisión por institutos de IA de EE.UU. y Reino Unido, y presión creciente para involucrar CERTs nacionales como CCN-CERT.
Claude Mythos: no disponible, acceso vía Project Glasswing. La postura de Anthropic es por diseño distinta. El modelo es tan capaz en descubrimiento de vulnerabilidades que Anthropic ha rechazado el despliegue masivo. Los defensores acceden vía Glasswing, actualmente enfocado en encontrar y remediar vulnerabilidades en sistemas fundacionales antes del release amplio. No hay URL de waitlist público; el acceso es vía partnership directo con Anthropic o membresía en una organización participante.
La EO de la Casa Blanca: redactada, no firmada. Los comentarios del miércoles de Hassett son la señal más concreta hasta ahora. La forma probable: evaluaciones previas al despliegue tipo FDA conducidas por un grupo de trabajo liderado por CAISI. Fecha de aplicación incierta; el texto está en redacción. Hassett: “muy probable” se aplique a “todas las empresas de IA”.
La grilla AESIA + INCIBE + ENS antes de la decisión
Aquí el contexto hispanohablante diverge significativamente de la cobertura en inglés.
AESIA y el AI Act 2024/1689. El Reglamento (UE) 2024/1689 está en vigor desde el 1 de agosto 2024 y de aplicación directa en España. Las obligaciones para proveedores de modelos GPAI están vigentes desde el 2 de agosto de 2025. GPT-5.5-Cyber y Mythos previsiblemente se clasificarán como modelos GPAI de alto impacto con obligaciones de:
- Documentación técnica
- Transparencia hacia clientes
- Posiblemente evaluación adicional si se consideran de riesgo sistémico
Las entidades españolas que los desplieguen como parte de servicios de ciberseguridad (SOC, MSSP) quedarán sujetas a obligaciones de “deployers”: evaluación de impacto, registro de usos, medidas de mitigación y cooperación con AESIA en inspecciones. AESIA coordina con la AEPD para sistemas que tratan datos personales.
INCIBE: adopción prudente con marco de gestión del riesgo. No hay aún un posicionamiento público específico de INCIBE sobre GPT-5.5-Cyber o Mythos, pero las líneas son claras: INCIBE promueve activamente el uso de IA y LLMs en ciberseguridad, pero con énfasis absoluto en seguridad, auditoría y ejecución controlada. Su laboratorio ensaya tecnologías emergentes con fabricantes e investigadores. En 2026 INCIBE organiza formaciones sobre “Fundamentos de LLMs en procesos de IA aplicada a la ciberseguridad” — postura: los LLMs son herramientas legítimas de defensa, pero deben integrarse en marcos de gestión del riesgo y cumplimiento.
Traducción práctica: INCIBE y CCN-CERT no vetan per se LLMs cyber-permisivos, pero empujan hacia modelos desplegados en entornos controlados (on-prem o cloud soberana), con logging exhaustivo, auditoría y alineamiento con ENS y NIS2.
ENS y RD 311/2022. El Esquema Nacional de Seguridad establece principios básicos, requisitos mínimos y medidas de seguridad obligatorias para administraciones públicas y sus proveedores tecnológicos, incluidos servicios esenciales privados. Su objetivo: asegurar confidencialidad, integridad, trazabilidad, autenticidad, disponibilidad y conservación de datos y servicios electrónicos.
Cualquier despliegue de GPT-5.5-Cyber en Administraciones Públicas o proveedores ENS debe considerarse un “sistema de información” sujeto a:
- Categorización (según impacto)
- Análisis de riesgo
- Controles de acceso robustos
- Cifrado
- Registro de actividad
El RD 311/2022 endurece la obligación de notificar incidentes graves a CCN-CERT en plazos estrictos. Para LLMs cyber-permisivos esto implica considerarlos activos críticos si intervienen en operaciones de defensa de infraestructuras o entornos OT.
Ley 11/2022 de Ciberseguridad + NIS2 transpuesta. Eleva el nivel mínimo de seguridad de redes y sistemas. Para LLMs cyber-permisivos exige gestión formalizada de riesgos, contratos de nivel de servicio y coordinación con CSIRTs nacionales.
El sector financiero: Banco de España + EBA-SREP
Para regulados, una segunda hurdle. El Banco de España ha empezado a exigir información a las entidades sobre uso de IA, con el objetivo de evitar que la tecnología tome decisiones clave (asunción de riesgos, concesión de crédito) sin supervisión humana adecuada. Encaja con el enfoque de la EBA en su marco SREP, que incluye directrices específicas de evaluación del riesgo TIC.
El regulador español observa que grandes bancos (BBVA, Santander, CaixaBank) ya están firmando acuerdos con OpenAI para integrar IA en sus operaciones. En este contexto, cualquier uso de GPT-5.5-Cyber sería clasificado como herramienta especializada de ciberdefensa, no para decisiones de negocio, y estaría bajo escrutinio reforzado de ciber-riesgo operativo y de terceros.
Mensaje para bancos en España: IA sí, pero dentro de un marco integrado de gestión de riesgos TIC (SREP), ENS/NIS2 y AI Act, con reporting de incidentes y trazabilidad completa de modelos y datos.
El contexto LatAm: soberanía primero
La cobertura en español y portugués de LatAm refleja una actitud aún más cauta en operadores críticos, especialmente energía y telecom.
NIS2 y AI Act no se aplican directamente en LatAm, pero sus principios se están usando como referencia por reguladores nacionales y por casas matrices europeas de telcos como Telefónica/Movistar. En energía, análisis regional apuntan a que operadores como Pemex, YPF o Petrobras ven con interés herramientas tipo GPT-5.5-Cyber/Mythos para caza de amenazas OT, pero condicionan su adopción a soberanía de datos.
Para Telefónica Tech, Babel, Indra y otros MSSP grandes en español, la pregunta estratégica es si apuestan por modelos US frontier (GPT-5.5-Cyber, Mythos vía Glasswing) o construyen alternativas EU-cercanas para mejor abordar conformidad AI Act, localidad de datos y transparencia.
El marco Q3 en 4 ejes para equipos hispanohablantes
Eje 1: Disponible hoy vs después vs sujeto a vetting
Hoy: GPT-5.5 con Trusted Access for Cyber. Solicitar, verificarse, desplegar. Si tu Q3 deliverable depende de enviar una capacidad lista, este es el camino que retorna valor este trimestre — siempre que documentes el ENS-categorización y AI Act-deployer-checklist en paralelo.
Después (90–180 días): Claude Mythos vía partnership Glasswing, o su sucesor público. El patrón de Anthropic con modelos previos sugiere GA tras varios meses de despliegue parcial.
Sujeto a vetting: Lo que la EO formalice + AESIA y AI Act-conformidad. Decisiones pre-EO pueden necesitar revisarse. Para sectores regulados (banca, energía crítica, salud), el coste de un compromiso en mala dirección sube.
Eje 2: Perfil de permisividad
GPT-5.5-Cyber: explícitamente ajustado para flujos defensores. Tuneo de OpenAI baja tasas de rechazo en identificación de vulnerabilidades, análisis de malware, ingeniería inversa, detection engineering, validación de parches. Red teaming y pen testing autorizados están explícitamente nombrados. Uso ofensivo permanece bloqueado incluso para defensores verificados.
Claude Mythos: propósito general con capacidad cyber extrema. Mythos no está ajustado para defensores. Es un modelo frontier general que resulta muy bueno encontrando vulnerabilidades. Capacidad-techo más alta que GPT-5.5-Cyber, pero superficie de fricción para flujos defensores también más alta.
La EO añadiría un tercer perfil: vetted-permissive. Un modelo solo sería desplegable para flujos cyber-permisivos tras pasar evaluación previa.
Eje 3: Postura de procurement y auditoría
Marco Trusted Access: verificación de identidad, atestación organizacional, Advanced Account Security desde 1 de junio. Buen encaje con SOC 2, ISO 27001, ENS-medio/alto, FedRAMP — los controles mapean limpio sobre familias de auditoría existentes.
Partnership Project Glasswing: contrato a medida, due-diligence más profundo, ciclo más largo. Si estás en una multinacional Fortune 500 con relación Anthropic existente, el camino está abierto. Si estás en un SOC de 200 personas, no — todavía.
La EO + AESIA añadirían capa de evaluación gubernamental previa. Puede simplificar algunos ángulos de cumplimiento (un modelo evaluado es defendible presuntamente ante un regulador) extendiendo plazos de procurement.
Eje 4 (LatAm-específico): Soberanía y residencia de datos
Esta dimensión falta completamente en la cobertura en inglés. Para LatAm:
- Workloads que toquen datos de infraestructura crítica, datos de operadores estatales, datos financieros regulados o datos médicos — necesitan deployment regional o un camino soberano (no GPT-5.5-Cyber estándar ni Mythos vía Glasswing).
- Para workloads no sensibles (revisión de código en repos open-source, detection engineering sin datos de cliente, pruebas de efecto de entrenamiento) — GPT-5.5-Cyber sigue siendo práctico también en LatAm.
- Mezcla los caminos explícitamente. Eso es la clave documentaria — no “usamos GPT-5.5-Cyber” o “usamos Mythos”, sino “GPT-5.5-Cyber para X, solución soberana o regional para Y, con mapeo claro a ENS-categorización o leyes locales”.
Cinco patrones “solicitar esta semana” por perfil de equipo
1. Red Team interno con Trusted-Access listo
Si tu red team tiene controles de identidad limpios, modelo de engagement autorizado y pipeline de captura de audit-trail ya operando — solicita el nivel mayor de GPT-5.5-Cyber esta semana. Latencia de solicitud a acceso es corta. Corre piloto de 30 días en el siguiente engagement autorizado.
2. Lab de vulnerability research con relación Anthropic
Si tu lab tiene engagement directo con Anthropic — research preview, membresía Glasswing, partnership Bug Bounty — solicita acceso Mythos por ese canal. GPT-5.5-Cyber como puente está bien.
3. SOC con auditoría INCIBE/CCN-CERT/ENS
Solicita GPT-5.5 con Trusted Access (el nivel más amplio, no la variante -Cyber). Detection engineering y validación de parches son exactamente los flujos para los que OpenAI lo construyó. Documenta en paralelo categorización ENS, mapeo a NIS2 y plan de notificación a CCN-CERT.
4. Consultoría Pen-test con requisitos multi-cliente
GPT-5.5-Cyber + captura de audit-trail por engagement. Tu modelo de negocio está acotado por permiso del cliente; el marco Trusted Access ayuda a atestar defensiblemente que el uso quedó dentro del scope. Mythos vía Glasswing no es buen encaje hasta que Anthropic publique garantías multi-tenant.
5. SOC regulado (financiero, energía, salud, infraestructura crítica)
Esperar EO + clarificación AESIA. Procurement pre-EO es opción real, pero probablemente necesitará revisarse bajo el framework de vetting + evaluación AI Act. Riesgo de un compromiso en mala dirección es alto; coste de esperar 60–90 días más es bajo. Usa la espera para construir capacidad interna de evaluación previa, redactar el framework procurement que mapea a vetting, y correr conversaciones piloto con ambos proveedores.
El anti-pattern “no desplegar”
Usar un modelo cyber-permisivo en un stack que no ha forzado input-attribution, audit-trail por usuario y permission-scoping por tool-call.
El marco Trusted Access presupone que tienes esto. Si no, el lower-refusal posture crea brechas en audit-trail que aparecerán en tu próxima auditoría ENS, próxima revisión INCIBE/CCN-CERT, próxima forensia post-incidente. La verificación está en la capa de despliegue, no solo en la cuenta OpenAI. Si tu analista SOC puede usar el modelo bajo cuenta de servicio compartida sin trace por usuario, has creado accidentalmente un camino de escalación de privilegios dentro de tu propio tooling.
El fix antes del despliegue: cada llamada al modelo debe loggear identidad llamante, herramienta/scope, prompt, respuesta y contexto de engagement. Ese trabajo va antes de la primera llamada, no después del primer incidente.
Cuatro señales para los próximos 30 días
Publicación formal de la EO. Hassett dijo cualquier día de este mes. El texto determinará si “vetting” es FDA-style (aprobación pre-mercado formal) o NIST-style (frameworks voluntarios con incentivos safe-harbor).
Disclosure de timeline GA de Anthropic. Cuando Anthropic publique fecha, el horizonte de planificación de la industria cambia.
Datos de tasa de rechazo de OpenAI Trusted Access primera semana. OpenAI probablemente publicará data una vez 30+ días de uso. Es la señal empírica de si la permisividad es materialmente distinta o marketing.
Postura AESIA + INCIBE + EU AI Office. Una evaluación AESIA de GPT-5.5-Cyber/Mythos llegará en los próximos 60–90 días — sea como guía técnica para deployers o como sandbox dedicado al uso defensivo. Vigila también pronunciamientos del EU AI Office en paralelo.
Lo que esto no soluciona
No reemplaza tu pipeline de entrenamiento de defensores. Un modelo cyber-permisivo en manos de un analista junior sin supervisión es una forma más rápida de equivocarse, no más segura.
No sustituye el scoping correcto del engagement. Una pen-test con scope incorrecto sigue siendo ilegal aunque la IA haya ayudado.
No decide la política por ti. Si tu organización no ha decidido si permitir herramientas IA en trabajo de ciberseguridad — por residencia de datos, control de exportaciones, seguros — ningún comparativo de capacidad lo resuelve.
No predice el comportamiento del regulador. La EO está redactada, no firmada. AESIA aún no ha publicado guidance específica de auto-optimización de agentes. Trata cualquier compromiso actual como revisable.
La conclusión
Tres caminos de producto y una ola regulatoria convergen en Q3. Para la mayoría de equipos en España y LatAm: solicitar Trusted Access esta semana, endurecer audit-trail antes del primer prompt cyber-permisivo, documentar categorización ENS y mapeo AI Act, y tratar cualquier compromiso de procurement como revisable hasta que aterricen los textos de la EO y la guidance AESIA.
Para SOCs regulados: esperar EO + clarificación AESIA + Banco de España, usar la espera para construir internamente capacidad de evaluación previa.
Si quieres profundizar en el lado operacional — construir audit-trail, hacer scoping correcto de autorización, endurecer SOC contra el nuevo perfil de permisividad — mira nuestro curso de ciberseguridad IA para PYMES y el curso de compliance IA para empresas.
Fuentes
- Scaling Trusted Access for Cyber with GPT-5.5 and GPT-5.5-Cyber — OpenAI
- INCIBE: Fundamentos de LLMs en procesos de IA aplicada a la ciberseguridad
- CCN-CERT y ENS RD 311/2022 — GRCTools
- AESIA: Reglamento de IA UE 2024/1689 y supervisión española
- Banco de España exige información sobre uso de IA — Cinco Días El País
- EBA SREP: directrices ICT risk evaluation
- Ley 11/2022 de Ciberseguridad y Real Decreto 311/2022
- Claude Mythos Preview — red.anthropic.com
- Anthropic Project Glasswing
- GPT-5.4-Cyber predecesor: cobertura LatAm — El Solitario
- Vetting EO Casa Blanca, FDA-style — Digital Strategy Europa
- Live blog: Code w/ Claude 2026 — Simon Willison