De 'Para la Humanidad' a 'Para el Pentágono' — La Década de Mentiras de OpenAI

OpenAI prometió IA abierta para todos. Hoy sus modelos están en redes militares clasificadas. Cada promesa rota de Sam Altman, con pruebas.

Sam Altman publicó en X un viernes por la noche que OpenAI firmó un acuerdo con el Pentágono. Sus modelos de IA van directo a redes militares clasificadas.

Lo llamó el “Departamento de Guerra”. No Defensa. Guerra. Como si eso fuera algo para presumir.

Horas antes, Anthropic — fundada por personas que renunciaron a OpenAI por preocupaciones de seguridad — fue vetada por la administración Trump. Su delito: negarse a que su IA impulse armas autónomas y vigilancia masiva sin restricciones.

Anthropic dijo que no. La castigaron. OpenAI pasó por encima para firmar el contrato.

El chatbot que usas para redactar correos y lluvia de ideas… está siendo conectado a sistemas que deciden quién vive y quién muere. Y el hombre que lo construyó pasó una década jurando que esto jamás iba a pasar.


¿Qué significan “redes clasificadas” en la práctica?

“Acuerdo con el Pentágono” suena abstracto. Entonces vamos a lo concreto.

A ver, las redes clasificadas procesan datos de inteligencia. Identificación de objetivos. Evaluación de amenazas. Interceptación de comunicaciones. Pues básicamente, toda la infraestructura que hace funcionar la guerra moderna y la vigilancia vive en esas redes.

Cuando Altman dice que OpenAI va a deployar modelos en redes clasificadas, significa que la tecnología detrás de ChatGPT se conecta a los sistemas que el ejército de EE.UU. usa para encontrar personas, rastrearlas y decidir qué hacer con ellas.

Altman insiste en que el acuerdo incluye prohibiciones de “vigilancia masiva doméstica” y “sistemas de armas autónomos”. Dice que el Pentágono “mostró un profundo respeto por la seguridad.”

Pero ojo con esto. Anthropic pidió exactamente las mismas restricciones. El Pentágono les dijo que no. El secretario de Defensa Pete Hegseth llamó a esas restricciones “filosóficas” y “woke”. Y después el gobierno declaró a Anthropic un riesgo para la cadena de suministro de seguridad nacional — una designación que normalmente se reserva para empresas chinas como Huawei.

O sea, el Pentágono rechazó las salvaguardas de seguridad cuando las propuso Anthropic. Y las aceptó cuando las propuso OpenAI. Las mismas salvaguardas. Diferente empresa.

Algo no cuadra.


Por Qué en América Latina Esto Debería Preocuparnos Más que a Nadie

Tal vez estés leyendo esto desde Ciudad de México, Bogotá, Buenos Aires o Santiago y pienses: “Bueno, pero eso es un problema gringo.” Pues no. Déjame explicarte por qué esto nos toca directamente.

La historia que ya conocemos

La cosa es que América Latina lleva más de un siglo siendo el laboratorio de las intervenciones militares de Estados Unidos. Desde el derrocamiento de Árbenz en Guatemala en 1954 hasta el apoyo a los Contras en Nicaragua, desde la invasión de Panamá hasta la Operación Cóndor que coordinó dictaduras militares en todo el Cono Sur. En casi todos los casos, la justificación fue “seguridad nacional.”

Ahora piensa en esto: esas operaciones usaron la tecnología de su época. Escuchas telefónicas análogas. Agentes infiltrados. Documentos en papel.

¿Qué pasa cuando le das a esa misma maquinaria la inteligencia artificial más avanzada del planeta?

Snowden ya nos lo demostró

En 2013, Edward Snowden reveló que la NSA interceptaba las comunicaciones de mil millones de personas. América Latina fue uno de los blancos principales. La NSA espió directamente a Dilma Rousseff, presidenta de Brasil, y a Felipe Calderón, presidente de México. Vigilaron a Petrobras por intereses económicos. Monitorearon comunicaciones en Brasil, México, Venezuela, Colombia, Argentina, Chile, Perú y prácticamente toda la región.

¿Y sabes cuál es el detalle más revelador? Casi todas las comunicaciones que salen de América Latina pasan por servidores en Estados Unidos. O sea, cada mensaje de WhatsApp, cada correo electrónico, cada llamada que cruza fronteras tiene una parada técnica en territorio gringo. La infraestructura ya existe. Lo que faltaba era la inteligencia para procesarlo todo al mismo tiempo.

Pues bueno, ahora OpenAI acaba de darles exactamente eso.

¿“Vigilancia doméstica”? Para nosotros eso no aplica

Altman dice que el acuerdo prohíbe la “vigilancia masiva doméstica”. Genial. Pero “doméstica” significa dentro de Estados Unidos. ¿Y los latinoamericanos? ¿Los millones de personas cuyos datos viven en servidores gringos? ¿Las comunicaciones que cruzan fronteras?

No somos “domésticos”. No nos cubre esa protección. Nunca nos ha cubierto.

Cuando la NSA espiaba a Rousseff y Calderón, eso tampoco era “vigilancia doméstica.” Era perfectamente legal bajo la ley estadounidense. Y ahora esa capacidad se multiplica por mil con modelos de IA que procesan millones de datos simultáneamente.

La regulación que no tenemos

Mientras Europa avanzó con el AI Act y puso reglas claras sobre el uso de IA, América Latina sigue en pañales. Según el Índice Latinoamericano de IA 2025, Chile, Brasil y Uruguay son “pioneros” en adopción, pero la regulación es otro tema completamente. México tiene múltiples iniciativas de ley atascadas en el Congreso. Argentina tiene proyectos que llevan años sin aprobarse. Colombia avanza lento.

Y acá va el dato brutal: no existe un solo país latinoamericano con una ley aprobada que regule específicamente el uso militar de la IA. Ni uno. Entonces, si el Pentágono decide usar modelos de OpenAI para analizar comunicaciones que pasan por servidores estadounidenses — comunicaciones nuestras — no hay marco legal en la región que lo frene.

Somos consumidores de tecnología de IA con casi cero capacidad de influir en cómo se usa. Así de simple.


Ya Sabemos Cómo Se Ve “IA en Redes Militares”

No hay que imaginárselo. Ya lo vimos.

El sistema Lavender en Gaza

En Gaza, las Fuerzas de Defensa de Israel desplegaron un sistema de IA llamado “Lavender” que procesaba datos de vigilancia masiva — registros telefónicos, conexiones sociales, patrones de comportamiento — y marcó hasta 37,000 palestinos como objetivos potenciales.

Un segundo sistema, “Where’s Daddy?”, rastreaba a esos individuos por la ubicación de su celular y notificaba a los operadores cuando llegaban a su casa. A su casa. Con sus familias.

¿La revisión humana de cada objetivo? Unos 20 segundos. Suficiente para ver un nombre en pantalla. No lo suficiente para cuestionar un algoritmo.

El sistema tenía una tasa de error del 10%. Eso significa que aproximadamente 3,700 de esos 37,000 individuos marcados probablemente eran personas inocentes — policías, trabajadores humanitarios, gente que compartía nombre con alguien más. Expertos de la ONU reportaron que más de 15,000 civiles murieron durante las primeras seis semanas cuando estos sistemas se usaron intensivamente para seleccionar objetivos.

No es ciencia ficción. Ya pasó. Y bueno, esos sistemas de IA eran muchísimo menos capaces que lo que OpenAI pone en redes clasificadas ahora.

El precedente de Libia

A ver, en marzo de 2020, un dron turco Kargu-2 persiguió y atacó objetivos humanos en Libia sin necesitar conexión de datos entre el operador y el arma. Un informe del Consejo de Seguridad de la ONU lo describió como una capacidad de “disparar, olvidar y encontrar”. El dron seleccionó sus propios objetivos.

Pues eso fue tecnología de 2020. Primitiva comparada con GPT-4 o lo que sea que OpenAI está deployando ahora.

La escala del problema

DARPA trabaja actualmente en enjambres de 250 drones autónomos letales. India quiere enjambres de 1,000. El Secretario General de la ONU pidió un tratado vinculante para prohibir las armas autónomas antes de que termine 2026.

Bueno, ahora agrega los modelos de lenguaje más capaces del mundo a ese panorama. Modelos que pueden procesar informes de inteligencia, cruzar bases de datos, identificar patrones entre millones de datos y generar recomendaciones de acción.

Eso es lo que va a redes clasificadas.


El Futuro que Nadie Quiere Discutir

El acuerdo con el Pentágono no es un punto final. Es una línea de salida. Y la meta es aterradora.

Vigilancia masiva industrializada

La IA no solo hace posible la vigilancia. La hace automática.

Ahora mismo, la vigilancia requiere humanos. Analistas que lean comunicaciones interceptadas, que revisen grabaciones de cámaras, que conecten puntos entre datos. Es cara y lenta. Y bueno, eso en realidad es una ventaja, no un defecto — la fricción es lo que impide que los gobiernos vigilen a todo el mundo todo el tiempo.

La IA elimina esa fricción.

Dario Amodei, CEO de Anthropic, explicó por qué su empresa puso el límite: la IA permite que un gobierno ensamble “datos dispersos e individualmente inocuos [sobre ciudadanos] en un retrato completo de la vida de cualquier persona — automáticamente y a escala masiva.”

Tu ubicación por GPS. Tu historial de compras. Tus conexiones en redes sociales. Los metadatos de tus correos. Cada pieza por separado no es nada. Pero un modelo de IA puede unirlas en un perfil completo de quién eres, a dónde vas, con quién hablas y en qué crees.

Y puede hacerlo con todos. Al mismo tiempo. Sin cansarse ni hacer preguntas.

Altman dice que el acuerdo prohíbe la “vigilancia masiva doméstica”. Pero pues la definición de “doméstica” se vuelve borrosa rapidísimo. ¿Qué pasa con un ciudadano estadounidense viviendo en el extranjero? ¿Con comunicaciones que cruzan fronteras? ¿Con los datos de extranjeros que viven en servidores estadounidenses?

Y lo más importante: ¿quién hace cumplir la prohibición? OpenAI dice que va a deployar personal con credenciales de seguridad para monitorear el uso. O sea, un puñado de empleados de una empresa vigilando cómo todo el ejército de EE.UU. usa su tecnología en redes clasificadas — redes donde, por definición, nadie de afuera puede ver qué está pasando.

¿Te suena a un sistema de control sólido? A mí tampoco.

Cadenas de muerte autónomas

“Responsabilidad humana por el uso de la fuerza” suena genial en un comunicado de prensa. Pero en la práctica significa: un humano en algún punto del proceso hace clic en “aprobar”.

¿Y cómo se ve esa aprobación cuando la IA ya identificó el objetivo, calculó la puntuación de amenaza, recomendó la respuesta y seleccionó el arma? El humano no está tomando la decisión. Le está poniendo un sello de goma a la decisión de la IA. Igualito que las revisiones de 20 segundos en Gaza.

Thomas Wright del Brookings Institution lo dijo clarito: “Exigir acceso incondicional antes de que estos sistemas estén listos no es una demostración de autoridad. Es una apuesta a que lo desconocido no importará.”

Entonces, las preguntas sin respuesta: ¿Pueden los modelos tipo GPT distinguir de manera confiable entre un combatiente y un civil desde imágenes de drones? ¿Entender contexto cultural en análisis de inteligencia? ¿Comprender que la persona cargando lo que parece un arma podría estar cargando una herramienta agrícola?

La respuesta, ahora mismo, es no. Hasta Anthropic lo reconoció, diciendo que sus modelos “no son lo suficientemente confiables para usarse en armas totalmente autónomas” y que “permitir que los modelos actuales se usen de esta forma pondría en peligro a combatientes y civiles.”

Ese fue el argumento de Anthropic. El Pentágono lo llamó “woke.”

El problema de la normalización

Entonces, lo más peligroso de este acuerdo no es el acuerdo en sí. Es lo que viene después.

Una vez que la IA entra en redes clasificadas, se convierte en infraestructura. Se integra a flujos de trabajo. La gente depende de ella. Y las salvaguardas que existen hoy se vuelven negociables. Porque la próxima renovación de contrato no va a suceder en público. Va a pasar detrás de barreras de clasificación, donde nadie fuera del Pentágono y OpenAI va a enterarse de qué cambió.

Hoy: “nada de vigilancia masiva, nada de armas autónomas.” El próximo año: “targeting autónomo limitado en escenarios definidos.” El siguiente: “uso expandido consistente con el entorno de amenazas en evolución.”

Así funciona el avance institucional. No con saltos dramáticos, sino con pequeñas redefiniciones de términos que ya sonaban flexibles desde el principio.


Cada Contradicción de Altman, Con Pruebas

Bueno, Sam Altman es increíblemente bueno diciendo lo correcto en el momento correcto. Esto es lo que dijo, y lo que realmente pasó.

“Open-source, para la humanidad” → Cerrado, para generar ganancias

2015: La carta fundacional de OpenAI se comprometía a “avanzar la inteligencia digital de la manera más probable de beneficiar a la humanidad en su conjunto, sin la restricción de necesitar generar retorno financiero.” La investigación se publicaba libremente. El código se compartía.

2019: OpenAI creó una subsidiaria de “ganancia limitada” que permitía retornos de 100x para inversores. Microsoft invirtió $1,000 millones. Comunicaciones internas de 2016-2017, reveladas por la investigación de The OpenAI Files, muestran al cofundador Greg Brockman escribiendo: “no podemos decir que estamos comprometidos con la non-profit. no queremos decir que estamos comprometidos.”

2025: OpenAI completó su conversión a una corporación de beneficio público con fines de lucro valorada en $500,000 millones. SoftBank invirtió $41,000 millones.

De non-profit a medio billón de dólares en diez años. Increíble transición “para la humanidad.”

“No tengo acciones” → Bueno, resulta que sí tengo

Mayo 2023: Altman le dijo al Senado de EE.UU.: “No tengo participación en OpenAI. Hago esto porque me encanta.”

Diciembre 2024: TechCrunch reportó que Altman tenía participaciones indirectas a través de un fondo de Sequoia y uno de Y Combinator.

Septiembre 2024: Reuters reportó que la reestructuración estaba diseñada para dar a Altman acciones por primera vez. En el acuerdo final de octubre 2025, no recibió participación — pero su testimonio ante el Senado ya estaba desmentido por las participaciones indirectas que tenía desde el principio.

“Necesitamos regulación fuerte” → La regulación es un exceso

Mayo 2023: Altman le dijo al Congreso que “la intervención regulatoria sería crítica para mitigar los riesgos de modelos cada vez más poderosos.”

Mayo 2025: El mismo hombre, el mismo Senado. Coincidió con el senador Ted Cruz en que la “sobre-regulación” era el verdadero peligro.

Bueno, a ver… ¿en qué quedamos?

“20% de cómputo para seguridad” → Equipos de seguridad disueltos

2023: OpenAI prometió destinar el 20% de su poder de cómputo al equipo de Superalignment para investigación de seguridad de IA a largo plazo.

Mayo 2024: Los dos líderes del equipo renunciaron. Jan Leike dijo que “la cultura y los procesos de seguridad quedaron en segundo plano frente a los productos vistosos.” Se fue a Anthropic. El equipo se disolvió. El poder de cómputo se redirigió a ChatGPT. Después, el equipo de AGI Readiness también se desmanteló. A principios de 2026, el equipo de Mission Alignment corrió la misma suerte. Tres equipos de seguridad. Los tres, desaparecidos.

“No sabía de los NDA” → Su firma estaba en los documentos

2024: Cuando los NDA con cláusula de confiscación de acciones de OpenAI se hicieron públicos, Altman se disculpó y dijo que no sabía. Vox obtuvo documentos de incorporación de abril de 2023 con la firma de Altman autorizando esas mismas cláusulas.

Daniel Kokotajlo, un investigador de seguridad, renunció a acciones equivalentes al 85% del patrimonio neto de su familia para conservar su derecho a hablar libremente sobre las fallas de seguridad de la empresa.

Lee eso otra vez. Un investigador tuvo que renunciar al 85% del dinero de su familia para poder decir la verdad. Eso te dice todo lo que necesitas saber sobre la “cultura de transparencia” de OpenAI.

“Nada de uso militar” → Redes clasificadas del Pentágono

Hasta el 10 de enero de 2024: La política de uso de OpenAI prohibía explícitamente aplicaciones “militares y de guerra”.

10 de enero de 2024: Esas palabras se borraron sin aviso. Sin post en el blog. Sin anuncio. The Intercept lo notó.

Noviembre 2025: OpenAI eliminó la palabra “de manera segura” de su declaración de misión. Antes: “beneficia de manera segura a toda la humanidad.” Ahora: “beneficia a toda la humanidad.”

Febrero 2026: Despliegue completo en redes clasificadas del Pentágono. Horas después de que la empresa que dijo “no” quedara vetada.

“Compartimos las líneas rojas de Anthropic” → Firmamos lo que Anthropic rechazó

Esta es la más reciente. En un memo a empleados, Altman dijo que OpenAI “seguiría en gran medida el enfoque de Anthropic” si estuviera en la misma posición.

Pero no están en la misma posición. Anthropic está vetada. OpenAI tiene el contrato. Decir que compartes los principios de alguien mientras tomas el acuerdo que esa persona rechazó… pues eso son solo palabras. Nada más.

Cientos de empleados de Google y OpenAI firmaron una petición pidiendo a sus empresas que adopten la posición real de Anthropic — no solo su lenguaje.


El Patrón Es Lo Que Importa

Lo que dijo AltmanLo que hizo
“Open-source, para la humanidad”Corporación for-profit de $500,000 millones
“No tengo acciones”Tenía participaciones indirectas desde el principio
“Necesitamos regulación fuerte”Dos años después dijo que la regulación era “excesiva”
“20% de cómputo para seguridad”Disolvió 3 equipos de seguridad en 2 años
“No sabía de los NDA”Su firma estaba en los documentos
“Nada de uso militar”Borró la prohibición en silencio y firmó con el Pentágono
“Beneficia de manera segura a toda la humanidad”Eliminó la palabra “segura” de la misión
“Compartimos las líneas rojas de Anthropic”Firmó el acuerdo que Anthropic rechazó

Entonces, cada posición se abandonó en el momento en que dejó de ser conveniente. No una vez. No dos. Ocho veces, en el registro público.

O sea, esto no es una persona que cambió de opinión. Es un patrón. Y el patrón dice: lo que Sam Altman te diga hoy, piensa en qué necesita que sea verdad en este momento, y vas a entender por qué lo dijo.


Y Entonces, ¿Qué Hacemos?

Probablemente no vas a influir en las compras del Pentágono. Pero bueno, tampoco estás sin poder hacer nada.

La IA que usas es una elección. ChatGPT no es la única opción. Nunca lo fue. Claude, Gemini, Copilot, Llama, Mistral — hay modelos construidos por empresas con valores diferentes, estructuras diferentes y relaciones diferentes con el poder militar. Usa más de uno. Compáralos. No dejes que la comodidad te ate a un solo proveedor cuyas prioridades se mueven bajo tus pies.

Los skills de IA son portables. Un prompt bien construido funciona en ChatGPT, Claude, Gemini o cualquier otro modelo. Cuando descargas y guardas tus propios skills de IA, son tuyos. Son archivos de texto. No les importa qué empresa corre el modelo. Si tu proveedor actual cambia de dirección — otra vez — tus skills siguen funcionando.

Pon atención a quién dice que no. En una industria donde todos los incentivos financieros empujan hacia decir que sí, las empresas que dicen que no te están mostrando sus valores reales. No su marketing. Sus valores. Anthropic acaba de perder un contrato de $200 millones y quedó vetada por el gobierno federal porque se negó a quitar sus salvaguardas de seguridad. Eso les costó algo real.

Exige regulación local. En América Latina todavía estamos a tiempo. México, Colombia, Argentina, Chile — todos tienen proyectos de ley de IA en proceso. Presiona a tus representantes para que incluyan protecciones contra el uso militar de IA y cláusulas que protejan los datos de ciudadanos latinoamericanos en servidores extranjeros. Esto no es un tema exclusivo de programadores. Es un tema de soberanía.

Sigue las declaraciones de misión, no los comunicados de prensa. Cuando una empresa elimina la palabra “segura” de su misión y pone su tecnología en redes militares clasificadas en el mismo trimestre, eso no es una señal ambigua. Es una señal clarísima.


La Pregunta que Nadie Quiere Responder

Pues te cuento lo que a mí me quita el sueño con todo esto.

La tecnología en sí es neutral. Los modelos de lenguaje procesan texto. Predicen tokens. No les importa si el texto es un borrador de correo o un informe de inteligencia, si los tokens representan una receta o una lista de objetivos.

A ver, la pregunta es quién los controla y qué salvaguardas existen.

Ahora mismo, las salvaguardas son: un contrato que Sam Altman dice que incluye restricciones de seguridad, supervisado por un puñado de empleados de OpenAI en redes clasificadas donde ninguna supervisión externa es posible, firmado por un CEO que rompió cada promesa importante que hizo en la última década.

Esa es la salvaguarda entre “asistente de IA que te ayuda a escribir mejor” y “sistema de IA que procesa datos de vigilancia masiva para el ejército más grande del mundo.”

Y para los que vivimos en América Latina, la situación es todavía más precaria. No tenemos regulación que nos proteja. Nuestros datos pasan por infraestructura estadounidense. Y la palabra “doméstica” en la prohibición de vigilancia masiva explícitamente nos excluye.

Si la salvaguarda falla, no nos vamos a enterar. Porque es clasificado.

Y bueno, si la historia nos enseñó algo — desde los golpes de Estado apoyados por la CIA hasta las revelaciones de Snowden sobre espionaje a presidentes latinoamericanos — es que cuando Estados Unidos tiene la capacidad tecnológica de vigilar a América Latina… la usa.

Ahora esa capacidad se acaba de multiplicar exponencialmente. Y nosotros, como siempre, mirando desde afuera mientras otros deciden qué hacen con nuestros datos.


Skills Relacionados

Desarrolla Habilidades Reales en IA

Cursos paso a paso con quizzes y certificados para tu currículum