OpenAI : de « pour l'humanité » à « pour le Pentagone » — Dix ans de promesses brisées

OpenAI promettait une IA pour l'humanité. Dix ans après, ses modèles tournent sur les réseaux classifiés du Pentagone. Preuves à l'appui.

Sam Altman a posté sur X vendredi soir qu’OpenAI venait de signer un contrat avec le Pentagone. Ses modèles d’IA vont tourner sur les réseaux militaires classifiés américains.

Il a parlé du « ministère de la Guerre ». Pas de la Défense. De la Guerre. Comme si c’était un truc dont on pouvait être fier.

Quelques heures plus tôt, Anthropic — fondée par des gens qui avaient quitté OpenAI par inquiétude pour la sécurité — venait de se faire blacklister par l’administration Trump. Leur crime ? Avoir refusé que leur IA alimente des armes autonomes et de la surveillance de masse sans restrictions.

Anthropic a dit non. A été puni. OpenAI leur est passé dessus pour signer le contrat.

Le chatbot que tu utilises pour rédiger tes mails et brainstormer des idées ? Il est en train d’être branché sur des systèmes qui décident qui vit et qui meurt. Et le mec qui l’a construit a passé dix ans à jurer que ça n’arriverait jamais.


Ce que « réseaux classifiés » veut vraiment dire

« Contrat avec le Pentagone », dit comme ça, ça reste abstrait. Du coup, soyons concrets sur ce que font réellement les réseaux militaires classifiés.

Ils traitent des données de renseignement. Identification de cibles. Évaluation de menaces. Interception de communications. Toute l’infrastructure qui fait tourner la guerre moderne et la surveillance vit sur ces réseaux.

Quand Altman annonce qu’OpenAI va déployer ses modèles sur des réseaux classifiés, ça veut dire que la technologie de ChatGPT est branchée sur les systèmes que l’armée américaine utilise pour trouver des gens, les pister, et décider quoi en faire.

Altman insiste : l’accord inclut des interdictions de « surveillance de masse domestique » et de « systèmes d’armes autonomes ». Il dit que le Pentagone a montré « un profond respect pour la sécurité ».

Sauf que voilà. Anthropic avait demandé exactement les mêmes restrictions. Le Pentagone leur a dit non. Le secrétaire à la Défense Pete Hegseth a qualifié ces restrictions de « philosophiques » et « woke ». Puis le gouvernement a déclaré Anthropic comme risque pour la chaîne d’approvisionnement de la sécurité nationale — une désignation normalement réservée aux entreprises chinoises comme Huawei.

Le Pentagone a rejeté les garde-fous quand c’est Anthropic qui les proposait. Puis les a acceptés quand c’est OpenAI qui les proposait. Mêmes garde-fous. Entreprise différente.

Y’a un truc qui colle pas, quoi.


On sait déjà à quoi ressemble « l’IA sur des réseaux militaires »

Pas besoin d’imaginer ce qui se passe quand on branche de l’IA sur du ciblage militaire. On l’a déjà vu. Et en France, les chercheurs de l’IFRI sonnent l’alarme depuis un moment.

Le système Lavender

À Gaza, l’armée israélienne a déployé un système d’IA baptisé « Lavender » qui traitait des données de surveillance de masse — relevés téléphoniques, connexions sociales, schémas comportementaux — et a signalé jusqu’à 37 000 Palestiniens comme cibles potentielles.

Un second système, « Where’s Daddy? », suivait ces individus signalés par géolocalisation mobile et notifiait les opérateurs quand les cibles rentraient chez elles. Chez eux. Avec leurs familles.

Le temps de vérification humaine pour chaque cible ? Environ 20 secondes. Assez pour checker un nom. Pas assez pour remettre en question un algorithme.

Le système avait un taux d’erreur connu de 10 %. Ça veut dire qu’environ 3 700 de ces 37 000 personnes signalées étaient probablement mal identifiées — des policiers, des humanitaires, des gens qui partageaient juste un nom avec quelqu’un d’autre. Les experts de l’ONU ont rapporté que plus de 15 000 civils sont morts pendant les six premières semaines où ces systèmes d’IA étaient massivement utilisés pour la sélection des cibles.

Pas de la science-fiction. C’est déjà arrivé. Et ces systèmes d’IA étaient infiniment plus bêtes que ce qu’OpenAI va mettre sur les réseaux classifiés.

Laure de Roucy-Rochegonde, directrice du Centre géopolitique des technologies de l’IFRI et auteure de La guerre à l’ère de l’intelligence artificielle (PUF, 2024), le dit clairement : confier à des machines la détermination précise d’une cible, c’est franchir un cap qui devrait rester une décision humaine.

Le précédent libyen

En mars 2020, un drone turc Kargu-2 a traqué et attaqué des cibles humaines en Libye sans aucune connexion entre l’opérateur et l’arme. Un rapport du Conseil de sécurité de l’ONU l’a décrit comme une capacité « tirer, oublier et trouver ». Le drone a sélectionné ses propres cibles.

C’était de la techno de 2020. Primitive comparée à GPT-4 ou à ce qu’OpenAI déploie maintenant.

Le problème d’échelle

Le DARPA travaille sur des essaims de 250 drones létaux autonomes. L’Inde veut des essaims de 1 000 drones. Le secrétaire général de l’ONU a appelé à un traité juridiquement contraignant pour interdire les armes autonomes d’ici 2026.

Comme le rappelle France Info dans son enquête sur les robots tueurs : le champ de bataille à l’heure de l’IA, c’est déjà la réalité. Pas un scénario de film.

Maintenant, mets les modèles de langage les plus puissants du monde dans cette équation. Des modèles qui traitent des rapports de renseignement, croisent des bases de données, identifient des patterns dans des millions de points de données, et génèrent des recommandations d’action.

C’est ça qui est mis sur les réseaux classifiés.


La vision de ce futur dont personne parle

Le contrat avec le Pentagone, ce n’est pas un point d’arrivée. C’est une ligne de départ. Et la ligne d’arrivée fait froid dans le dos.

La surveillance de masse, industrialisée

L’IA ne rend pas seulement la surveillance possible. Elle la rend automatique.

En ce moment, la surveillance nécessite des humains. Des analystes doivent lire des communications interceptées, regarder des images de caméras, connecter les points entre les données. C’est cher et c’est lent. Et en fait, c’est une feature, pas un bug — la friction, c’est ce qui empêche les gouvernements de surveiller tout le monde en permanence.

L’IA supprime cette friction.

Le PDG d’Anthropic, Dario Amodei, a expliqué pourquoi son entreprise avait tracé la ligne : l’IA permet à un gouvernement d’assembler « des données dispersées, individuellement anodines, sur n’importe quel Américain, en un portrait complet de la vie de cette personne — automatiquement et à une échelle massive ».

Tes données de géolocalisation. Ton historique d’achats. Tes connexions sur les réseaux sociaux. Les métadonnées de tes mails. Chaque morceau, pris seul, c’est rien. Mais un modèle d’IA peut tout assembler en un profil complet de qui tu es, où tu vas, à qui tu parles, et ce que tu penses.

Et il peut le faire pour tout le monde. Simultanément. Sans jamais se fatiguer ni poser de questions.

Ce que la France sait mieux que quiconque

En France, on connaît ce sujet. La CNIL, qui est désormais l’autorité nationale de surveillance de l’AI Act, a été la première en Europe à sanctionner les dérives de surveillance numérique, avec un record de 478 millions d’euros d’amendes en 2025, dont 325 millions contre Google. Son plan stratégique 2025-2028 fait de l’IA sa priorité numéro un.

Mais voilà le hic : l’AI Act européen exclut explicitement les usages militaires de son périmètre. La réglementation la plus ambitieuse du monde en matière d’IA a un trou béant pile à l’endroit le plus dangereux. Genre, exactement là où il faudrait être le plus vigilant. Les pratiques interdites — scoring social, reconnaissance des émotions, manipulation subliminale — ne s’appliquent pas dès qu’on colle l’étiquette « défense » dessus.

Du coup, quand Altman dit que l’accord interdit la « surveillance de masse domestique », le problème c’est que la définition de « domestique » devient très floue très vite. Un citoyen américain à l’étranger ? Des communications qui traversent les frontières ? Les données de ressortissants étrangers stockées sur des serveurs américains ? Et les données de citoyens européens qui transitent par les GAFAM ?

Et qui fait respecter l’interdiction ? OpenAI dit qu’elle va déployer du personnel habilité pour surveiller l’utilisation. Une poignée d’employés de la boîte qui surveillent comment l’armée américaine utilise leur technologie sur des réseaux classifiés — des réseaux où, par définition, les observateurs extérieurs n’ont pas le droit de voir ce qui se passe.

Les chaînes de mise à mort autonomes

Concrètement, « responsabilité humaine dans l’usage de la force », ça veut dire quoi ? Qu’un humain quelque part dans la boucle clique sur « approuver ».

Mais à quoi ça ressemble quand l’IA a déjà identifié la cible, calculé le score de menace, recommandé la réponse, et sélectionné l’arme ? L’humain ne prend pas la décision. Il tamponne la décision de l’IA. Exactement comme les vérifications de 20 secondes à Gaza.

Thomas Wright de la Brookings Institution le dit sans détour : « Exiger un accès inconditionnel avant que ces systèmes soient prêts n’est pas une affirmation d’autorité. C’est un pari que les inconnues n’auront pas d’importance. »

Les inconnues incluent : est-ce qu’un modèle de niveau GPT peut distinguer un combattant d’un civil sur des images de drone ? Peut-il prendre en compte le contexte culturel dans l’analyse de renseignement ? Peut-il comprendre que la personne qui porte ce qui ressemble à une arme transporte peut-être un outil agricole ?

La réponse, aujourd’hui, c’est non. Même Anthropic l’a reconnu : ses modèles « ne sont pas assez fiables pour être utilisés dans des armes entièrement autonomes » et « permettre leur utilisation de cette manière mettrait en danger les militaires américains et les civils ».

C’était l’argument d’Anthropic. Le Pentagone l’a qualifié de « woke ».

Le problème de la normalisation

Le plus dangereux dans ce contrat, c’est pas le contrat en lui-même. C’est ce qui vient après.

Une fois que l’IA est sur les réseaux classifiés, elle devient infrastructure. Elle s’intègre dans les workflows. Les gens en dépendent. Et les garde-fous qui existent aujourd’hui ? Ils deviennent négociables. Parce que le prochain renouvellement de contrat se fera pas en public. Il se fera derrière des barrières de classification, là où personne en dehors du Pentagone et d’OpenAI saura ce qui a changé.

Aujourd’hui : « pas de surveillance de masse, pas d’armes autonomes ».

L’année prochaine : « ciblage autonome limité dans des scénarios définis ».

L’année d’après : « usage élargi cohérent avec l’environnement de menaces évolutif ».

C’est comme ça que le glissement institutionnel fonctionne. Pas en grands sauts spectaculaires, mais en petites redéfinitions de termes qui sonnaient déjà flexibles au départ.


La France a choisi une autre voie (et c’est pas un détail)

Pendant que les Américains se battent entre eux sur les garde-fous éthiques de l’IA militaire, la France fait un choix radicalement différent.

Le 8 janvier 2026, le ministère des Armées a officialisé un accord-cadre avec Mistral AI pour l’IA de défense. La différence fondamentale ? Les modèles sont déployés sur des infrastructures situées en France, avec un contrôle total des données et des technologies critiques. Pas de dépendance à une boîte américaine qui peut changer ses conditions du jour au lendemain.

L’Agence ministérielle de l’intelligence artificielle de défense (AMIAD) pilote le truc, et l’approche est claire : souveraineté technologique d’abord, avec un supercalculateur capable de traiter des données classifiées à grande échelle, installé depuis septembre 2025.

Bref, pendant qu’OpenAI signe avec le Pentagone et que personne sait vraiment ce que l’armée US fera avec, la France dit : « On veut bien de l’IA militaire, mais on contrôle les serveurs, on contrôle les modèles, et on contrôle les données. » Et ça s’inscrit dans un mouvement européen plus large avec SAP et Mistral AI qui collaborent sur une IA souveraine franco-allemande.

C’est pas parfait. L’IA de défense, même souveraine, pose les mêmes questions éthiques. Mais au moins, il y a un cadre, une structure de contrôle, et pas un PDG qui peut décider seul un vendredi soir de filer la techno à l’armée.

D’ailleurs, Florence Parly, quand elle était ministre de la Défense, avait eu cette formule : « Terminator ne défilera pas au 14-Juillet. » Ça sonnait bien. Reste à voir si ça tiendra face à la pression de la course aux armements IA.


Chaque contradiction, preuves à l’appui

Sam Altman est très fort pour dire le bon truc au bon moment. Voilà ce qu’il a dit, et ce qui s’est réellement passé.

« Open-source, pour l’humanité » → Fermé, pour le profit

2015 : La charte fondatrice d’OpenAI s’engageait à « faire progresser l’intelligence numérique de la manière la plus susceptible de bénéficier à l’humanité dans son ensemble, sans être contrainte par un besoin de générer un retour financier ». La recherche était publiée librement. Le code était partagé.

2019 : OpenAI crée une filiale « à profit plafonné » permettant des retours investisseurs de 100x. Microsoft investit 1 milliard de dollars. Des communications internes de 2016-2017, révélées par l’enquête « OpenAI Files », montrent le cofondateur Greg Brockman écrivant : « ne peut pas dire qu’on est engagé dans le non-lucratif. ne veut pas dire qu’on est engagé ».

2025 : OpenAI achève sa transformation en Public Benefit Corporation à but lucratif valorisée 500 milliards de dollars. SoftBank investit 41 milliards.

Helen Toner, ex-membre du conseil d’administration, a révélé sur un podcast que les « mensonges éhontés » d’Altman avaient directement provoqué son éviction temporaire en novembre 2023. Le conseil n’avait même pas été informé du lancement de ChatGPT. Ils l’ont appris sur Twitter. Genre, comme tout le monde.

« Je ne possède aucune action » → En fait, si

Mai 2023 : Altman déclare devant le Sénat américain : « Je n’ai aucune action dans OpenAI. Je fais ça parce que j’aime ça. »

Décembre 2024 : TechCrunch révèle qu’Altman détenait des participations indirectes via un fonds Sequoia et un fonds Y Combinator.

Septembre 2024 : Reuters a rapporté que la restructuration était conçue pour donner à Altman des actions pour la première fois. Dans l’accord final d’octobre 2025, il n’a pas reçu de participation — mais son témoignage au Sénat était déjà démenti par les participations indirectes qu’il détenait depuis le début.

« Il faut une régulation forte » → La régulation, c’est dangereux

Mai 2023 : Altman dit au Congrès que « l’intervention régulatrice serait essentielle pour atténuer les risques de modèles de plus en plus puissants ».

Mai 2025 : Même mec, même Sénat. Se range derrière le sénateur Ted Cruz pour dire que la « sur-régulation » est le vrai danger.

Du coup, quand il dit à l’Europe « on respecte l’AI Act, promis », faut quand même se poser des questions.

« 20 % de la puissance de calcul pour la sécurité » → Équipes de sécurité dissoutes

2023 : OpenAI promet 20 % de sa puissance de calcul à l’équipe Superalignment pour la recherche en sécurité IA à long terme.

Mai 2024 : Les deux chefs d’équipe démissionnent. Jan Leike déclare que « la culture et les processus de sécurité ont été relégués au second plan derrière les produits tape-à-l’œil ». Il rejoint Anthropic. L’équipe est dissoute. La puissance de calcul part sur ChatGPT. Plus tard dans l’année, l’équipe AGI Readiness est supprimée. Début 2026, l’équipe Mission Alignment aussi. Trois équipes de sécurité. Disparues.

« Je ne savais pas pour les NDA » → Sa signature était dessus

2024 : Quand les NDA avec clauses de confiscation d’actions d’OpenAI deviennent publics, Altman s’excuse et dit qu’il n’était pas au courant. Vox obtient des documents d’incorporation d’avril 2023 portant la signature d’Altman autorisant ces dispositions.

Daniel Kokotajlo, un chercheur en sécurité, a renoncé à des actions valant 85 % du patrimoine net de sa famille pour conserver le droit de parler librement des défaillances de sécurité de l’entreprise.

J’avoue, rien que ça, ça devrait donner à réfléchir.

« Pas d’usage militaire » → Réseaux classifiés du Pentagone

Jusqu’au 10 janvier 2024 : La politique d’utilisation d’OpenAI interdisait explicitement les applications « militaires et de guerre ».

10 janvier 2024 : Ces mots ont été discrètement supprimés. Pas de billet de blog. Pas d’annonce. C’est The Intercept qui l’a remarqué.

Novembre 2025 : OpenAI supprime le mot « safely » de son énoncé de mission. Avant : « bénéficie en toute sécurité à toute l’humanité ». Après : « bénéficie à toute l’humanité ». Un mot en moins, un gouffre de sens en plus.

Février 2026 : Déploiement complet sur les réseaux classifiés du Pentagone. Quelques heures après que l’entreprise qui a dit « non » a été blacklistée.

« On partage les lignes rouges d’Anthropic » → On a signé ce qu’Anthropic a refusé

Le plus récent. Dans un mémo interne, Altman a dit qu’OpenAI « suivrait largement l’approche d’Anthropic » si elle se trouvait dans la même situation.

Sauf qu’ils sont pas dans la même situation. Anthropic est blacklisté. OpenAI a le contrat. Dire qu’on partage les principes de quelqu’un tout en prenant le deal qu’il a refusé, ça reste juste des mots.

Des centaines d’employés de Google et OpenAI ont depuis signé une pétition demandant à leurs entreprises de calquer la position réelle d’Anthropic — pas juste son vocabulaire.


Le schéma, c’est ça le sujet

Ce qu’Altman a ditCe qu’il a fait
« Open-source, pour l’humanité »Entreprise à but lucratif à 500 milliards
« Je ne possède aucune action »Détenait des participations indirectes depuis le début
« Il faut une régulation forte »« La sur-régulation est le vrai danger » deux ans plus tard
« 20 % du calcul pour la sécurité »3 équipes de sécurité dissoutes en 2 ans
« Je ne savais pas pour les NDA »Sa signature était sur les documents
« Pas d’usage militaire »Supprimé l’interdiction en douce, puis signé avec le Pentagone
« Bénéficie en toute sécurité à l’humanité »Supprimé le mot « sécurité » de la mission
« On partage les lignes rouges d’Anthropic »Signé le contrat qu’Anthropic a refusé

Huit revirements. Tous documentés. Tous publics.

C’est pas quelqu’un qui a changé d’avis. C’est un schéma. Et le schéma dit : quoi que Sam Altman te dise aujourd’hui, demande-toi ce dont il a besoin que tu croies en ce moment, et tu comprendras pourquoi il l’a dit.

Comme le résume un article de Next.ink : « Trompeur et chaotique. » C’est pas nous qui le disons. C’est sa propre ancienne direction.


Ce que tu peux faire concrètement

Tu vas probablement pas influencer les achats militaires du Pentagone. Mais t’es pas impuissant non plus.

L’IA que tu utilises, c’est un choix. ChatGPT n’est pas la seule option. Ça ne l’a jamais été. Claude, Gemini, Copilot, Llama, Mistral — il y a des modèles construits par des entreprises avec des valeurs différentes, des structures différentes, et des rapports différents au pouvoir militaire. Utilise-en plusieurs. Compare-les. Laisse pas la flemme t’enfermer chez un seul fournisseur dont les priorités bougent sous tes pieds.

Et en tant que Français, on a un avantage que peu de gens réalisent : Mistral AI existe. Un modèle de classe mondiale, développé en France, avec des données hébergées en France. T’as pas besoin de dépendre d’une boîte californienne qui vient de signer un contrat militaire pour avoir accès à de l’IA de pointe.

Les skills IA sont portables. Un prompt bien conçu fonctionne dans ChatGPT, Claude, Gemini, ou n’importe quel autre modèle. Quand tu télécharges et sauvegardes tes propres skills IA, ils t’appartiennent. Ce sont des fichiers texte. Ils se fichent de quel modèle les exécute. Si ton fournisseur actuel change de direction — encore — tes skills marchent toujours.

Regarde qui dit non. Dans une industrie où tous les incitants financiers poussent vers le oui, les entreprises qui disent non te disent quelque chose sur leurs vraies valeurs. Pas leur marketing. Leurs valeurs. Anthropic vient de perdre un contrat de 200 millions de dollars et de se faire blacklister par le gouvernement fédéral parce qu’elle a refusé de retirer les garde-fous de sécurité. Ça leur a coûté quelque chose de réel.

Suis les missions, pas les communiqués de presse. Quand une entreprise supprime le mot « sécurité » de sa mission et met sa technologie sur des réseaux militaires classifiés dans le même trimestre, c’est pas un signal ambigu. C’est un signal très clair.


La question que personne veut poser

Voilà ce qui m’empêche de dormir dans cette histoire.

La technologie en elle-même est neutre. Les grands modèles de langage traitent du texte. Ils prédisent des tokens. Ils se fichent de savoir si le texte est un brouillon de mail ou un rapport de renseignement, si les tokens représentent une recette ou une liste de cibles.

La question, c’est qui les contrôle et quels garde-fous existent.

En ce moment, les garde-fous sont : un contrat dont Sam Altman dit qu’il inclut des restrictions de sécurité, surveillé par une poignée d’employés d’OpenAI sur des réseaux classifiés où aucun contrôle extérieur n’est possible, signé par un PDG qui a brisé chaque promesse majeure de la dernière décennie.

C’est ça le garde-fou entre « assistant IA qui t’aide à mieux écrire » et « système IA qui traite des données de surveillance de masse pour la plus grande armée du monde ».

Et si le garde-fou lâche ? On saura pas. Parce que c’est classifié.

La France, l’Europe, le monde regardent. Et la seule vraie protection, c’est pas un contrat entre un PDG menteur et un Pentagone qui qualifie l’éthique de « woke ». C’est la diversité des choix technologiques, la souveraineté numérique, et des citoyens qui refusent de fermer les yeux.

Bref, le moment de s’en soucier, c’est maintenant. Pas quand ce sera classifié.


Skills associés