GPT-5.5 Instant: 12 prompts que deberías reescribir hoy mismo

GPT-5.5 Instant ya es el modelo por defecto de ChatGPT. Doce prompts comunes reescritos para el modelo que responde más corto, sin paja.

Desde el 5 de mayo de 2026 hay un modelo distinto detrás de ChatGPT. En el selector sigue diciendo “Instant” — pero por debajo es GPT-5.5 Instant. Según los números que OpenAI publicó (y que Infobae y El Español recogieron en español): 52,5% menos alucinaciones en temas duros (medicina, derecho, finanzas), 30,2% menos palabras para decir lo mismo, casi nada de emoji, y se acabó el bucle interminable de “¿quieres que también te…?”.

Si llevas tiempo usando ChatGPT, lo notás el primer día. Respuestas más cortas. Menos relleno. El modelo va directo a la cosa.

El problema: muchos prompts que funcionaban perfecto con 5.3 ahora dan peores resultados con 5.5. No porque el modelo sea más tonto — sino porque está tomando tus instrucciones más literalmente y más cortas. Tus prompts viejos estaban acolchados para un modelo más charlatán.

Esto es una hoja de migración. Doce prompts que casi todo el mundo manda a ChatGPT cada semana, reescritos para el nuevo modelo por defecto, con una nota corta de qué cambió y por qué.

GPT-5.5 Instant va directo al resultado en un problema de álgebra; 5.3 se rellenaba con preámbulo Fuente: OpenAI – Anuncio de GPT-5.5 Instant

Qué cambió de verdad

Para los detalles técnicos podés leer el anuncio oficial o la cobertura de WWWhatsnew. Para lo que importa al escribir prompts, son cuatro cosas:

  • El tono ya es seco por defecto. Si tu prompt empezaba con “sé conciso”, “responde corto” o “sin introducción”, todo eso está de más. El modelo ya lo hace. Borralo.
  • Adiós a los preámbulos. GPT-5.3 arrancaba media respuesta con “¡Excelente pregunta! Déjame analizarlo paso a paso…”. El nuevo modelo va directo. Si tu prompt fuerza “pensá en voz alta paso a paso”, estás pagando tokens que no necesitás.
  • Panel “Fuentes de memoria” nuevo. Cuando ChatGPT personaliza una respuesta usando una memoria guardada, un chat anterior o una app conectada (Gmail, Drive), aparece un icono pequeño “i” que muestra qué fuentes se usaron. Detalle importante: muestra algunas, no todas. Si tenés prompts que asumen que ChatGPT “se acuerda” de lo que le dijiste ayer, mirá el panel — sirve de auditoría.
  • Persona prompts pesan menos. “Eres un consultor senior con 20 años de experiencia…” sigue funcionando, pero el modelo se quita el disfraz mentalmente y responde. Los preámbulos de rol largos son tokens gastados.

El nuevo panel de “Fuentes de memoria” en ChatGPT muestra una parte — no todo — del contexto utilizado Fuente: OpenAI — el nuevo panel Memory Sources, que muestra cuáles memorias y apps conectadas alimentaron la respuesta

El principio detrás de las doce reescrituras: decí qué resultado querés, no cómo el modelo debe llegar ahí.

Las 12 reescrituras

1. “Explicame este concepto”

Antes (estilo 5.3):

“¿Podés explicarme el entrelazamiento cuántico como si fuera un adulto curioso sin formación en física? Usá analogías, evitá la jerga, llevame paso a paso. Hacelo entretenido.”

Ahora (estilo 5.5):

“Explicá entrelazamiento cuántico para no físicos. Una analogía, después la regla que enseña. 200 palabras.”

Qué cambió: quité “entretenido” (5.5 no rellena), quité “paso a paso” (se estructura solo), agregué tope de palabras (5.5 respeta límites de longitud sin discutir).

2. “Resumime este artículo”

Antes:

“Por favor leé el artículo de abajo y dame un resumen exhaustivo. Incluí el argumento principal, los puntos de apoyo y cualquier contraargumento. Usá viñetas y sé completo.”

Ahora:

“Resumí este artículo en 5 viñetas: tesis, top 3 puntos de apoyo, la objeción más fuerte que no aborda. [pegar]”

Qué cambió: “exhaustivo” y “completo” antes alargaban la respuesta; ahora solo la trababan. Estructura inline da salida más limpia.

3. “Reescribime este email”

Antes:

“Voy a pegar un email abajo. ¿Podés reescribirlo para que suene más profesional pero igual amigable? Conciso pero no demasiado corto. Ajustá el tono para que no parezca escrito por IA. Mantené todos los detalles importantes.”

Ahora:

“Reescribí este email. Profesional, cálido, sin marcas de IA. Conservá todos los números y fechas. [pegar]”

Qué cambió: cada adjetivo del prompt viejo era un seguro. El nuevo modelo lee los seguros como ruido. “Sin marcas de IA” funciona ahora como instrucción directa.

4. “Dame feedback”

Antes:

“Acá está mi borrador. ¿Podés darme feedback honesto y constructivo sobre estructura, claridad y poder de persuasión? No solo lo alabes — señalá lo que no funciona. Sé específico.”

Ahora:

“Critique este borrador. Tres cosas que funcionan, tres que no. Sin vueltas. [pegar]”

Qué cambió: 5.5 realmente te dice las cosas sin vueltas cuando se lo pedís así. 5.3 necesitaba tres oraciones de permiso. Esta es la mejora más grande para quien edita textos.

5. “Comparame X e Y”

Antes:

“¿Podés hacer una comparación detallada de Notion y Obsidian para tomar notas personales? Cubrí precio, funciones, facilidad de uso y cuál es mejor para cada tipo de usuario. Tabla si ayuda.”

Ahora:

“Notion vs Obsidian para notas personales. Tabla comparativa: precio, funciones, facilidad de uso. Después tu recomendación en una oración.”

Qué cambió: 5.5 arma la tabla solo si tiene sentido, no hace falta sugerirla. La recomendación de una oración al final fuerza una decisión real en vez de listar pros y contras.

6. “Ayudame a hacer brainstorming”

Antes:

“Necesito ideas para un podcast sobre moda sustentable. Generá una variedad amplia — distintos formatos, ángulos, audiencias objetivo. Apuntá a por lo menos 20 ideas y no filtres — cantidad sobre calidad.”

Ahora:

“20 ideas de podcast sobre moda sustentable. Mezclá formatos (entrevista/solo/narrativo). Etiquetá cada una con su público. Sin preámbulo.”

Qué cambió: “Sin preámbulo” se convirtió en mi instrucción de migración favorita. 5.5 lo entiende.

7. “Actuá como X”

Antes:

“Quiero que actúes como un product manager senior con 15 años de experiencia en una empresa tech grande. Estás revisando mi product roadmap. Sé crítico, hacé preguntas duras, no aflojes. Acá va el roadmap: [pegar]”

Ahora:

“Hacé un stress-test de este roadmap. Las tres suposiciones más débiles, dos riesgos faltantes, una apuesta que es realmente contraintuitiva. [pegar]”

Qué cambió: el rol-prompt ahora es ruido. El modelo asume el rol implícitamente cuando le das tareas con forma de rol (stress-test, crítica, auditoría). Saltate el preámbulo, andá directo a la estructura del output.

8. “Extraé datos de este texto”

Antes:

“Por favor extraé cuidadosamente la siguiente información del texto: nombres de empresas, montos en dólares, fechas y cualquier estadística citada. Formato lista limpia, no te olvides de nada. Acá va el texto: [pegar]”

Ahora:

“Extraer del texto: nombres de empresas, montos, fechas, estadísticas citadas. JSON. Si falta un campo, escribí null — no inventes. [pegar]”

Qué cambió: 5.5 es mucho mejor con salida estructurada. Pedile JSON y te da JSON limpio. “No inventes” cierra la puerta a alucinaciones en campos faltantes.

9. “Planeame algo”

Antes:

“Ayudame a planificar un viaje de 5 días a Lisboa para una pareja de unos 30 años que les gusta la comida, el diseño y los barrios tranquilos. No queremos una agenda apretada — dejá espacio para perderse. Dame por día con bloques mañana/tarde/noche.”

Ahora:

“Itinerario de 5 días en Lisboa para pareja de 30s. Intereses: comida, diseño, calles tranquilas. Ritmo: pausado. Día por día, mañana/tarde/noche. Una sugerencia de reserva por día.”

Qué cambió: cambié las restricciones blandas (“no queremos agenda apretada”) por etiquetas de estilo (“Ritmo: pausado”). El nuevo modelo parsea etiquetas más rápido que oraciones completas.

10. “Debuggeame este código”

Antes:

“Acá va mi script de Python. Tiene que traer datos de una API y escribirlos en un CSV, pero estoy recibiendo un error. ¿Podés mirarlo con cuidado, explicarme qué puede estar mal y proponer una solución?”

Ahora:

“Debuggeá esto. Objetivo: API → CSV. Error: [pegar error]. Código: [pegar código]. Dame: causa raíz, línea a cambiar, fragmento corregido.”

Qué cambió: declarar el objetivo arriba, el error antes del código y la estructura del output produce una respuesta limpia en vez de un ida-y-vuelta interactivo.

11. “Investigame un tema”

Antes:

“¿Podés investigar el estado actual de los mercados de bonos de carbono? Quiero saber quiénes son los actores principales, controversias recientes, desarrollos regulatorios y hacia dónde va el campo. Exhaustivo pero accesible.”

Ahora:

“Mercados de bonos de carbono, estado actual. Cubrir: 5 actores principales (una línea cada uno), 2 controversias recientes, 1 cambio regulatorio, 1 predicción. Citá fuentes cuando puedas.”

Qué cambió: forzar cantidades por sección (5/2/1/1) te da algo editable. “Exhaustivo pero accesible” antes daba 1500 palabras; el nuevo prompt da 400 que podés profundizar.

12. “Escritura creativa”

Antes:

“Escribime un cuento corto sobre una bibliotecaria que descubre un libro que se escribe solo. Atmosférico, literario, unas 800 palabras. Con detalles sensoriales y un final inesperado.”

Ahora:

“Cuento corto, 800 palabras. Premisa: bibliotecaria encuentra libro que se escribe solo. Tono: literario, atmosférico. Regla dura: el final tiene que subvertir el giro obvio.”

Qué cambió: “final inesperado” antes producía el giro obvio. “Subvertir el giro obvio” — formulado como regla dura — sí te lleva a algo más raro. Usá “Regla dura:” en cualquier restricción que querés que se cumpla.

El patrón en una frase

Los prompts viejos eran cargados de instrucciones y pobres en resultado. Le decían al modelo cómo pensar, cómo formatear, cómo comportarse. Los prompts nuevos deberían ser cargados de resultado y pobres en instrucción. Decí qué tiene que ser la respuesta — no cómo el modelo debe llegar ahí.

El formato es más o menos:

[verbo de tarea] [objeto]. [restricción estructural]. [tono o alcance]. [reglas duras, si hay].

Cuatro frases cortas en lugar de un párrafo.

Anatomía del prompt: 5.3 → 5.5
relleno de cortesía fuera
instrucciones de proceso fuera
tarea + objeto
restricción estructural
forma del resultado ✓
Sacá las partes con forma de instrucción; quedate con resultado y estructura

Lo que aporta la investigación profunda (los números que nadie pone en el titular)

El “52,5% menos alucinaciones” de OpenAI es real, pero acotado. Cruzando fuentes independientes el panorama cambia:

  • El benchmark AA-Omniscience de Artificial Analysis mide GPT-5.5 con 57% de exactitud fáctica — el mayor jamás registrado para un modelo — pero con una tasa de alucinación del 86% cuando el modelo no sabe la respuesta. Para comparar: Claude Opus 4.7 está en 36% y Gemini 3.1 Pro en 50%. La lectura: GPT-5.5 es más confiado de lo que debería. La baja de alucinaciones que reportó OpenAI es para escenarios dirigidos de alto riesgo; fuera de ese carril, el modelo inventa más seguido que los rivales cuando topa con un hueco de conocimiento.
  • La escala del rollout es mayor de lo que parece. ChatGPT cruzó los 900 millones de usuarios activos semanales en febrero de 2026 — el doble que los 400 millones reportados un año antes. Un solo cambio de modelo por defecto afecta de un saque a cientos de millones de flujos de trabajo. Por eso un cambio de UX “chico” como Memory Sources tiene impacto real.
  • Los usuarios de API pagan literalmente el doble. GPT-5.3 Instant está a USD 1,75/M de tokens de input + USD 14/M de output. GPT-5.5 (endpoint API general) está a USD 5/M input + USD 30/M output. La eficiencia de tokens compensa parte — las respuestas ~30% más cortas reducen el costo efectivo por tarea a un sobreprecio de ~20% — pero el precio de lista se duplicó. Para equipos LatAm que convierten a USD, vale revisarlo.
  • El panel Memory Sources abre una superficie de ataque real. A inicios de 2026, investigadores de Check Point divulgaron un canal lateral basado en DNS que permitía exfiltrar datos de conversaciones de ChatGPT en silencio; OpenAI lo parcheó el 20 de febrero de 2026. El head of research de Check Point lo dijo crudo: “Los controles de seguridad nativos ya no alcanzan por sí solos.” Los usuarios Plus/Pro con integración de Gmail habilitada introdujeron un vector nuevo de prompt injection contra el email — razón por la cual grandes bancos y agencias de gobierno restringieron internamente el uso de ChatGPT de manera preventiva.
  • Memory Sources no es solo UX — es una herramienta de perfilado longitudinal. Investigadores de privacidad de PIA lo describen como “muy por encima de la memoria por sesión”: conversaciones pasadas, archivos y Gmail conectado alimentan un perfil persistente de creencias, trabajo y relaciones. La política de privacidad de OpenAI permite usar el contenido “para mejorar los servicios” — los datos de memoria quedan en una zona gris legal entre “preferencia de usuario” y “input de entrenamiento”.

El consejo práctico de migración: tratar Memory Sources como opt-in para flujos sensibles, auditar las memorias guardadas semanalmente desde el panel, y usar Chat Temporal para cualquier sesión que toque datos confidenciales de clientes o propietarios.

Lo que no puede (los límites honestos)

Una hoja de migración no es un trasplante de personalidad. Cosas que conviene saber:

  1. Trabajo creativo largo sigue queriendo briefing más rico. Un ensayo de 2000 palabras o un capítulo de novela aún quiere más contexto. La regla “prompt corto” es para lo cotidiano — emails, resúmenes, debugging, comparaciones. No para escritura sostenida.
  2. Memory Sources oculta parte del contexto. El panel muestra qué se usó pero no necesariamente todo lo que el modelo consideró. Si una memoria que no esperabas que estuviera ahí está influyendo las respuestas, el panel puede no detectarlo. Revisá tus memorias guardadas directamente en Configuración.
  3. La queja de “está vago” es real. Algunos usuarios reportan que 5.5 corta a mitad de tarea o se niega a expandir cuando le pedís. Solución: re-prompteá con la restricción faltante (“expandí el paso 3 con un ejemplo de código”), no discutas con el modelo.
  4. Las instrucciones personalizadas siguen pesando. Si tenés “About me” y “Response style” configurados en ChatGPT, esas interactúan con el nuevo default. Si tu personalización decía “sé detallado y exhaustivo”, vas a recibir respuestas más largas que el baseline nuevo. Auditalas.
  5. Usuarios de API de gpt-5-3-instant no se ven afectados. Este rollout es la interfaz de consumidor de ChatGPT. Los devs que llaman directamente al modelo viejo por API conservan el comportamiento viejo.

Qué significa esto para vos

Si sos usuario casual (algunos prompts por día): no necesitás migrar nada. Solo notá cuándo un prompt viejo se siente trabado y probá el patrón de arriba.

Si escribís prompts para tu trabajo (operaciones, marketing, ventas): reescribí tu biblioteca de prompts esta semana. Quitá cada instrucción que le dice al modelo cómo comportarse; quedate con el resultado y la estructura.

Si mantenés una biblioteca de prompts para tu equipo: publicá una guía de estilo de una página basada en las reescrituras de arriba. La regresión más común en calidad de prompts cuando cambia el modelo por defecto es que la gente se copia los prompts viejos entre sí. Adelantate.

Si sos developer y usás la API: todavía no te afecta, pero el mismo default de brevedad probablemente llegará al API. Empezá a escribir prompts del modo nuevo así no migrás dos veces.

Si enseñás IA a gente no técnica (escuelas, capacitaciones, talleres en LatAm): el modelo nuevo es genuinamente más fácil de enseñar. Estudiantes que antes se asustaban con las respuestas de pared de texto ahora reciben respuestas cortas y escaneables por defecto. Menos cosas que desaprender.

El balance final

El modelo se volvió más inteligente, más conciso y un poco más gruñón. Tus prompts deberían acompañar. Quitá el relleno de cortesía, las instrucciones de proceso, el armado de personaje — quedate con el resultado y la estructura. Resultado: respuestas más rápidas, menos regeneraciones y (vale decirlo) cerca de 30% menos consumo de tokens, lo cual baja la huella ambiental por consulta — aunque como usuario de consumidor no lo veas en una factura.

Si querés profundizar en armar una biblioteca de prompts personal que sobreviva cambios de modelo como este, nuestro curso de ChatGPT Avanzado trabaja los patrones duraderos — las partes del prompting que no cambiaron en los últimos cuatro cambios de modelo por defecto.

Fuentes

Desarrolla Habilidades Reales en IA

Cursos paso a paso con quizzes y certificados para tu currículum