OpenAI: De 'Para a Humanidade' a 'Para o Pentágono' — Uma Década de Promessas Quebradas

A OpenAI prometeu IA aberta pra humanidade. Dez anos depois, seus modelos rodam em redes militares secretas. Todas as promessas que o Sam Altman quebrou.

Sam Altman postou no X na sexta-feira à noite que a OpenAI fechou um acordo com o Pentágono. Os modelos de IA dele vão rodar em redes militares classificadas.

Ele chamou o Departamento de Defesa de “Departamento de Guerra”. Não Defesa. Guerra. Como se fosse motivo de orgulho.

Horas antes, a Anthropic — fundada por gente que saiu da OpenAI por preocupações com segurança — foi colocada na lista negra pelo governo Trump. O crime deles? Se recusar a deixar a IA ser usada pra armas autônomas e vigilância em massa sem restrições.

A Anthropic disse não. Foi punida. A OpenAI passou por cima e assinou o contrato.

Pra quem tá no Brasil lendo isso e pensando “ah, mas é problema dos americanos” — calma. A gente já sabe muito bem como vigilância americana funciona. Pergunte pra Dilma Rousseff.


Por que isso interessa (e muito) ao Brasil

Olha, antes de entrar nos detalhes do acordo, preciso contextualizar uma coisa que a maioria da cobertura gringa ignora completamente: o Brasil já foi vítima direta da espionagem americana.

Em 2013, Edward Snowden revelou que a NSA — a mesma agência que agora vai usar modelos da OpenAI — espionou a presidente Dilma Rousseff, seus assessores, o Palácio do Planalto, e até o avião presidencial. Quatro números do gabinete da Dilma foram monitorados. O celular do assistente pessoal. A secretária. O general do Gabinete de Segurança Institucional.

E não parou aí. A NSA também espionou a Petrobras — os dados sobre o pré-sal, as reservas de petróleo, os planos de licitação. O programa se chamava BLACKPEARL e interceptava comunicações da rede privada da empresa. Glenn Greenwald foi claro: os alvos eram “esmagadoramente financeiros e econômicos”. Espionagem clássica pra dar vantagem competitiva a empresas americanas.

A Dilma cancelou visita de Estado aos EUA. Fez discurso na Assembleia Geral da ONU denunciando a espionagem como violação de direitos humanos. Brasil e Alemanha apresentaram resolução sobre privacidade na era digital. O Congresso instalou CPI.

Agora imagina a NSA com acesso aos modelos mais avançados do mundo. A mesma agência. A mesma mentalidade. Só que dessa vez com IA que processa milhões de dados simultaneamente, identifica padrões em redes sociais, cruza metadados de chamadas telefônicas e monta perfis completos de qualquer pessoa — automaticamente.

Tipo, a espionagem contra o Brasil em 2013 era artesanal perto do que vem aí.


O que “redes classificadas” significa na prática

“Acordo com o Pentágono” soa abstrato. Então vamos ser específicos.

Redes militares classificadas processam dados de inteligência. Identificação de alvos. Avaliação de ameaças. Interceptação de comunicações. É a infraestrutura que faz a máquina de guerra e vigilância funcionar.

Quando o Altman diz que a OpenAI vai colocar seus modelos nessas redes, ele quer dizer que a tecnologia do ChatGPT — sim, o mesmo que você usa pra escrever e-mail e fazer brainstorm — vai ser conectada aos sistemas que o exército americano usa pra encontrar pessoas, rastrear pessoas e decidir o que fazer com elas.

O Altman jura que o acordo inclui proibições de “vigilância doméstica em massa” e “sistemas de armas autônomas”. Diz que o Pentágono “demonstrou profundo respeito pela segurança”.

Só que tem um detalhe. A Anthropic pediu exatamente as mesmas restrições. O Pentágono disse não. O Secretário de Defesa Pete Hegseth chamou essas restrições de “filosóficas” e “woke”. Aí o governo declarou a Anthropic um risco à cadeia de suprimentos de segurança nacional — uma classificação normalmente reservada pra empresas chinesas tipo Huawei.

Então o Pentágono rejeitou salvaguardas de segurança quando a Anthropic propôs. Depois aceitou quando a OpenAI propôs. As mesmas salvaguardas. Empresa diferente.

Algo não bate.


A gente já sabe como “IA em redes militares” funciona

Não precisa imaginar o que acontece quando IA é conectada a sistemas de guerra. Já vimos.

O sistema Lavender

Em Gaza, as Forças de Defesa de Israel usaram um sistema de IA chamado “Lavender” que processava dados de vigilância em massa — registros telefônicos, conexões sociais, padrões de comportamento — e marcou até 37 mil palestinos como alvos potenciais.

Um segundo sistema, “Where’s Daddy?”, rastreava essas pessoas via dados de localização do celular e notificava os operadores quando os alvos chegavam em casa. Em casa. Com as famílias.

A Agência Pública cobriu isso em detalhe. O tempo de revisão humana pra cada alvo? Uns 20 segundos. Dava pra checar o nome. Não dava pra questionar o algoritmo.

O sistema tinha uma margem de erro conhecida de 10%. Traduzindo: dos 37 mil marcados como alvos, uns 3.700 provavelmente eram policiais, socorristas, gente que compartilhava nome com outra pessoa. Especialistas da ONU reportaram que mais de 15 mil civis morreram nas primeiras seis semanas em que esses sistemas de IA foram intensamente usados pra selecionar alvos.

Não é ficção científica. Já aconteceu. E esses sistemas de IA eram muito mais burros do que o que a OpenAI tá colocando em redes classificadas agora.

O precedente da Líbia

Em março de 2020, um drone turco Kargu-2 caçou e atacou alvos humanos na Líbia sem precisar de nenhuma conexão com o operador. Um relatório do Conselho de Segurança da ONU descreveu como capacidade de “disparar, esquecer e encontrar”. O drone escolheu seus próprios alvos.

Isso foi tecnologia de 2020. Primitiva comparada ao que a OpenAI tá entregando agora.

O problema da escala

A DARPA tá trabalhando em enxames de 250 drones letais autônomos. A Índia quer enxames de 1.000 drones. O Secretário-Geral da ONU pediu um tratado vinculante pra banir armas autônomas até 2026.

Agora coloca os modelos de linguagem mais avançados do mundo nessa equação. Modelos que processam relatórios de inteligência, cruzam bancos de dados, identificam padrões em milhões de pontos de dados e geram recomendações de ação.

É isso que vai pras redes classificadas.


O futuro que ninguém quer enxergar

O acordo com o Pentágono não é o ponto de chegada. É a linha de partida.

Vigilância em massa industrializada

IA não só torna vigilância possível. Torna automática.

Hoje, vigilância precisa de humanos. Analistas que leem comunicações interceptadas, revisam gravações de câmeras, conectam pontos entre dados. É caro e lento. E essa lentidão, na real, é uma proteção — a fricção é o que impede governos de vigiar todo mundo o tempo todo.

IA remove essa fricção.

O CEO da Anthropic, Dario Amodei, explicou por que sua empresa traçou a linha: IA permite que um governo junte “dados dispersos e individualmente inócuos sobre cidadãos americanos em um retrato abrangente da vida de qualquer pessoa — automaticamente e em escala massiva.”

Dados de localização do seu celular. Seu histórico de compras. Suas conexões em redes sociais. Os metadados dos seus e-mails. Cada peça isolada não é nada. Mas um modelo de IA costura tudo num perfil completo de quem você é, onde você vai, com quem conversa e no que acredita.

E faz isso com todo mundo. Simultaneamente. Sem cansar e sem fazer perguntas.

O Altman diz que o acordo proíbe “vigilância doméstica em massa”. Beleza. Mas “doméstica” fica confuso rápido. E os cidadãos americanos no exterior? E as comunicações que cruzam fronteiras? E os dados de cidadãos estrangeiros armazenados em servidores americanos?

Lembra do CLOUD Act de 2018? Essa lei americana autoriza órgãos dos EUA a exigirem dados de empresas americanas de nuvem, independente de onde os dados estejam armazenados. Traduzindo: seus dados no Brasil, em servidores de empresa americana, podem ser requisitados pelo governo dos EUA. E agora tem IA pra processar tudo isso.

A cadeia de decisão autônoma

Altman fala em “responsabilidade humana pelo uso da força”. Na prática, o que isso significa é que um humano em algum ponto da cadeia clica “aprovar”.

Mas como é essa aprovação quando a IA já identificou o alvo, calculou o nível de ameaça, recomendou a resposta e selecionou a arma? O humano não tá decidindo. Tá carimbando a decisão da IA. Igualzinho aos 20 segundos de “revisão” em Gaza.

Thomas Wright da Brookings Institution foi direto: “Exigir acesso incondicional antes que esses sistemas estejam prontos não é afirmação de autoridade. É uma aposta de que o desconhecido não vai importar.”

Até a Anthropic reconheceu que seus modelos “não são confiáveis o suficiente para serem usados em armas totalmente autônomas” e que “permitir que modelos atuais sejam usados dessa forma colocaria em risco os soldados americanos e civis.”

Esse foi o argumento da Anthropic. O Pentágono chamou de “woke”.

O problema da normalização

A coisa mais perigosa desse acordo não é o acordo em si. É o que vem depois.

Quando IA entra em redes classificadas, vira infraestrutura. Se integra aos processos. As pessoas passam a depender. E as salvaguardas de hoje? Viram negociáveis. Porque a próxima renovação de contrato não vai acontecer em público. Vai acontecer atrás de barreiras de sigilo, onde ninguém fora do Pentágono e da OpenAI vai saber o que mudou.

Hoje: “proibida vigilância em massa e armas autônomas.” Ano que vem: “uso autônomo limitado em cenários definidos.” Depois: “uso expandido consistente com o ambiente de ameaças em evolução.”

É assim que funciona. Não em saltos dramáticos, mas em pequenas redefinições de termos que já eram vagos desde o começo.


Tá, e por que um brasileiro deveria se preocupar com um contrato entre uma empresa americana e o Pentágono?

Porque os dados de brasileiros estão nesse jogo. E o Brasil sabe disso — tanto que vem construindo defesas.

LGPD e a proteção (limitada) que temos

A Lei Geral de Proteção de Dados (LGPD) existe desde 2020 e é a nossa versão do GDPR europeu. Em 2026, a ANPD (Autoridade Nacional de Proteção de Dados) ganhou status de agência reguladora de verdade, com 200 novos cargos de especialista e poder de interditar operações.

Mas a LGPD protege contra vigilância americana? Na teoria, sim. Na prática, o CLOUD Act continua permitindo que o governo americano requisite dados de empresas americanas, não importa em que país estejam armazenados. E aí a LGPD esbarra num pepino geopolítico que nenhuma lei nacional resolve sozinha.

O governo brasileiro parece estar ciente: a Nuvem Soberana de Governo foi criada justamente pra que dados públicos rodem em infraestrutura controlada pelo Estado. Mais de 250 órgãos federais já estão migrando. É um passo importante, mas os dados de cidadãos comuns continuam em servidores do Google, da Microsoft, da Amazon.

O PL 2338/2023 — o Marco Legal da IA — ficou pra 2026 e ainda gera muita polêmica. A coisa mais preocupante? O texto preliminar permite o uso de Sistemas de Armas Autônomas em contextos de defesa nacional, com exceções que abrem brechas enormes.

Pensa nisso: enquanto a gente debate se vai ou não regular IA no Brasil, a maior empresa de IA do mundo já tá rodando modelos dentro de redes militares sem nenhuma regulação internacional efetiva.

O Brasil tá investindo R$ 1,76 bilhão no Plano Brasileiro de Inteligência Artificial, o que é bom. Mas a fatia destinada à fiscalização é ridiculamente pequena perto dos investimentos em fomento.


Todas as promessas quebradas, com recibos

Sam Altman é muito bom em falar a coisa certa na hora certa. Aqui vai o que ele disse — e o que realmente aconteceu.

“Código aberto, pra humanidade” → Fechada, com fins lucrativos

2015: O manifesto de fundação da OpenAI prometia “avançar a inteligência digital da forma mais provável de beneficiar a humanidade como um todo, sem a necessidade de gerar retorno financeiro.” A pesquisa era publicada abertamente. O código era compartilhado.

2019: A OpenAI criou uma subsidiária de “lucro limitado” permitindo retorno de 100x pros investidores. A Microsoft investiu US$ 1 bilhão. Documentos internos de 2016-2017, revelados pela investigação “OpenAI Files”, mostram o cofundador Greg Brockman escrevendo: “não podemos dizer que estamos comprometidos com a organização sem fins lucrativos. não queremos dizer isso.”

2025: A OpenAI completou a conversão pra empresa com fins lucrativos avaliada em US$ 500 bilhões. O SoftBank investiu US$ 41 bilhões.

“Não tenho ações da OpenAI” → Na verdade, tinha sim

Maio de 2023: Altman disse ao Senado americano: “Não tenho ações da OpenAI. Faço isso porque amo.”

Dezembro de 2024: O TechCrunch reportou que Altman tinha participações indiretas através de fundos da Sequoia e da Y Combinator.

Setembro de 2024: A Reuters reportou que a reestruturação foi projetada para dar a Altman ações pela primeira vez. No acordo final de outubro de 2025, ele não recebeu participação — mas seu depoimento no Senado já estava desmentido pelas participações indiretas que detinha o tempo todo.

“Precisamos de regulação forte” → Regulação é excesso

Maio de 2023: Altman disse ao Congresso que “intervenção regulatória seria fundamental pra mitigar os riscos de modelos cada vez mais poderosos.”

Maio de 2025: Mesmo cara, mesmo Senado. Concordou com o senador Ted Cruz que “regulação excessiva” era o verdadeiro perigo.

“20% do poder computacional pra segurança” → Times de segurança dissolvidos

2023: A OpenAI prometeu dedicar 20% do poder computacional ao time de Superalinhamento pra pesquisa de segurança de IA a longo prazo.

Maio de 2024: Os dois líderes do time pediram demissão. Jan Leike disse que “a cultura de segurança e os processos ficaram em segundo plano diante de produtos brilhantes.” Ele foi pra Anthropic. O time foi dissolvido. O poder computacional foi pro ChatGPT. Depois, o time de Prontidão pra AGI também acabou. Em 2026, o time de Alinhamento de Missão também. Três times de segurança. Foram embora.

“Eu não sabia dos NDAs” → A assinatura dele tava nos documentos

2024: Quando os NDAs com cláusula de confisco de ações vieram a público, Altman pediu desculpas e disse que não sabia. A Vox obteve documentos de constituição de abril de 2023 com a assinatura do Altman autorizando as cláusulas.

Daniel Kokotajlo, pesquisador de segurança, abriu mão de ações que valiam 85% do patrimônio da família pra manter o direito de falar livremente sobre as falhas de segurança da empresa.

“Sem uso militar” → Nas redes classificadas do Pentágono

Até 10 de janeiro de 2024: A política de uso da OpenAI proibia explicitamente aplicações “militares e de guerra”.

10 de janeiro de 2024: Essas palavras foram silenciosamente removidas. Sem post no blog. Sem anúncio. O The Intercept percebeu.

Novembro de 2025: A OpenAI deletou a palavra “com segurança” da sua declaração de missão. Antes: “beneficia com segurança toda a humanidade.” Depois: “beneficia toda a humanidade.”

Fevereiro de 2026: Implantação completa nas redes classificadas do Pentágono. Horas depois da empresa que disse “não” ser colocada na lista negra.

“Compartilhamos as linhas vermelhas da Anthropic” → Assinamos o que a Anthropic recusou

Essa é a mais recente. Num memo interno pros funcionários, Altman disse que a OpenAI “seguiria amplamente a abordagem da Anthropic” se estivesse na mesma posição.

Mas eles não estão na mesma posição. A Anthropic tá na lista negra. A OpenAI tem o contrato. Dizer que compartilha os princípios de alguém enquanto aceita o acordo que essa pessoa recusou é só conversa.

Centenas de funcionários do Google e da OpenAI assinaram uma petição pedindo às empresas que espelhem a posição real da Anthropic — não só a linguagem.


O padrão é o ponto

O que o Altman disseO que ele fez
“Código aberto, pra humanidade”Empresa com fins lucrativos de US$ 500 bilhões
“Não tenho ações”Detinha participações indiretas o tempo todo
“Precisamos de regulação forte”Chamou regulação de “excesso” dois anos depois
“20% do poder computacional pra segurança”Dissolveu 3 times de segurança em 2 anos
“Eu não sabia dos NDAs”A assinatura dele tava nos documentos
“Sem uso militar e de guerra”Apagou a proibição e assinou com o Pentágono
“Beneficia com segurança toda a humanidade”Deletou a palavra “com segurança” da missão
“Compartilhamos as linhas vermelhas da Anthropic”Assinou o acordo que a Anthropic recusou

Cada posição foi abandonada no momento em que ficou inconveniente. Não uma vez. Não duas. Oito vezes, registradas publicamente.

Isso não é uma pessoa que mudou de ideia. É um padrão. E o padrão diz: o que Sam Altman te falar hoje, descubra o que ele precisa que seja verdade agora, e você vai entender por que ele disse.


O que você pode fazer

Você provavelmente não vai influenciar as compras do Pentágono. Mas também não tá de mãos atadas.

A IA que você usa é uma escolha. O ChatGPT não é a única opção. Nunca foi. Claude, Gemini, Copilot, Llama, Mistral — existem modelos construídos por empresas com valores diferentes, estruturas diferentes e relações diferentes com o poder militar. Use mais de um. Compare. Não deixe a conveniência te prender a um provedor cujas prioridades tão mudando debaixo dos seus pés.

Skills de IA são portáteis. Um prompt bem feito funciona no ChatGPT, no Claude, no Gemini ou em qualquer outro modelo. Quando você baixa e salva seus próprios skills de IA, eles são seus. São arquivos de texto. Não importa qual empresa roda o modelo. Se seu provedor atual mudar de direção — de novo — seus skills continuam funcionando.

Presta atenção em quem diz não. Numa indústria onde todos os incentivos financeiros empurram pro “sim”, as empresas que dizem “não” tão te mostrando algo sobre os valores reais delas. Não o marketing. Os valores. A Anthropic acabou de perder um contrato de US$ 200 milhões e foi colocada na lista negra do governo federal porque se recusou a remover salvaguardas de segurança. Isso custou caro pra eles de verdade.

Acompanha as declarações de missão, não os press releases. Quando uma empresa deleta a palavra “com segurança” da missão e coloca sua tecnologia em redes militares classificadas no mesmo trimestre, isso não é sinal confuso. É sinal claro.

E aqui no Brasil? Cobra o Marco Legal da IA. A votação ficou pra 2026 e os debates continuam. O texto precisa ter dentes — principalmente nas cláusulas sobre armas autônomas e vigilância. A nossa LGPD é boa, mas sozinha não segura o tranco contra o CLOUD Act e a escala de processamento que IA traz.

A gente aprendeu em 2013 que os EUA espionam quem quiserem, quando quiserem, inclusive presidentes e empresas estatais de países aliados. Agora eles têm IA pra fazer isso com todo mundo ao mesmo tempo.


A pergunta que ninguém quer responder

A tecnologia em si é neutra. Modelos de linguagem processam texto. Preveem tokens. Não importa pra eles se o texto é um rascunho de e-mail ou um relatório de inteligência, se os tokens representam uma receita ou uma lista de alvos.

A pergunta é: quem controla e quais são as salvaguardas.

Agora, as salvaguardas são: um contrato que Sam Altman diz incluir restrições de segurança, fiscalizado por um punhado de funcionários da OpenAI em redes classificadas onde nenhuma supervisão externa é possível, assinado por um CEO que quebrou todas as promessas relevantes que fez na última década.

Essa é a salvaguarda entre “assistente de IA que te ajuda a escrever melhor” e “sistema de IA que processa dados de vigilância em massa pro maior exército do mundo.”

E se a salvaguarda falhar? A gente não vai saber. Porque é classificado.

O Brasil já viveu isso. A NSA espionou a Dilma, a Petrobras, o Banco Central — e a gente só ficou sabendo porque um cara arriscou a vida inteira pra vazar documentos. Agora a vigilância é automatizada, escalável e rodando em redes onde nenhum Snowden vai ter acesso.

Fica a reflexão.


Skills Relacionados