OpenAI, dal 'per l'umanità' al Pentagono: dieci anni di promesse tradite

OpenAI prometteva IA open-source per tutti. Oggi i suoi modelli girano su reti militari classificate. Ecco tutte le promesse infrante da Sam Altman.

Sam Altman ha scritto su X venerdì sera che OpenAI ha chiuso un accordo col Pentagono. I suoi modelli di IA andranno su reti militari classificate.

L’ha chiamato “Department of War.” Non Difesa. Guerra. Come se fosse un vanto.

Poche ore prima, Anthropic — fondata da gente che aveva lasciato OpenAI proprio per preoccupazioni sulla sicurezza — era stata messa nella lista nera dall’amministrazione Trump. La colpa? Aver rifiutato di dare la propria IA al Pentagono senza restrizioni su armi autonome e sorveglianza di massa.

Anthropic ha detto no. È stata punita. OpenAI le è passata sopra e ha firmato il contratto.

Il chatbot che usi per scrivere email e fare brainstorming? Ora viene collegato a sistemi che decidono chi vive e chi muore. E l’uomo che l’ha costruito ha passato dieci anni a giurare che non sarebbe mai successo.


Perché a noi italiani dovrebbe importare (e parecchio)

Allora, facciamo un passo indietro. Perché in Italia conosciamo bene questa storia… o almeno dovremmo.

Il 30 marzo 2023 il Garante per la protezione dei dati personali ha fatto una cosa che nessun altro paese occidentale aveva osato fare: ha bloccato ChatGPT. Per circa un mese, noi siamo stati l’unico paese al mondo dove ChatGPT non funzionava. Motivo? Raccolta illecita di dati personali, nessuna base giuridica chiara, mancata verifica dell’età dei minori, un data breach non notificato.

All’epoca mezzo mondo ci ha preso in giro. “Gli italiani che bloccano la tecnologia, classica Italia.” Ricordate? Ma poi è successa una cosa interessante: le autorità di Francia, Germania e Irlanda hanno chiamato il Garante per capire come avevamo fatto. Il Comitato Europeo per la Protezione dei Dati ha istituito una task force investigativa. Il Canada ha aperto un’indagine.

E a dicembre 2024, il Garante ha chiuso l’istruttoria con una sanzione da 15 milioni di euro a OpenAI e l’obbligo di una campagna informativa di sei mesi. OpenAI l’ha definita “sproporzionata.” Beh, diciamo che 15 milioni per un’azienda valutata 500 miliardi sono tipo l’equivalente di una multa per divieto di sosta.

Ma il punto è un altro. Quel gesto del Garante nel 2023 oggi sembra profetico. L’Italia aveva capito — prima di chiunque — che OpenAI non era esattamente un’organizzazione trasparente con le migliori intenzioni del mondo.


Cosa vuol dire “reti militari classificate”

“Accordo col Pentagono” suona astratto. Allora rendiamolo concreto.

Le reti classificate processano dati di intelligence. Identificazione di obiettivi. Valutazione delle minacce. Intercettazione di comunicazioni. L’infrastruttura che regge la guerra moderna e la sorveglianza vive su queste reti.

Quando Altman dice che OpenAI dispiegherà i modelli su reti classificate, vuol dire che la tecnologia di ChatGPT viene inserita nei sistemi che l’esercito americano usa per trovare persone, tracciarle e decidere cosa farne.

Altman insiste che l’accordo include divieti sulla “sorveglianza di massa domestica” e sui “sistemi d’arma autonomi.” Dice che il Pentagono ha mostrato “un profondo rispetto per la sicurezza.”

Ecco il problema. Anthropic aveva chiesto le stesse identiche restrizioni. Il Pentagono gliele ha rifiutate. Il Segretario alla Difesa Pete Hegseth le ha definite “filosofiche” e “woke.” Poi il governo ha dichiarato Anthropic un rischio per la supply chain della sicurezza nazionale — una designazione che di solito si usa per aziende cinesi come Huawei.

Insomma: il Pentagono rifiuta le garanzie di sicurezza quando le propone Anthropic. Le accetta quando le propone OpenAI. Stesse garanzie. Azienda diversa.

Qualcosa non torna, no?


Sappiamo già come va a finire quando l’IA entra nelle operazioni militari

Non dobbiamo immaginare cosa succede quando l’intelligenza artificiale viene collegata ai sistemi di targeting militare. L’abbiamo già visto.

Il sistema Lavender a Gaza

A Gaza, le Forze di Difesa Israeliane hanno schierato un sistema di IA chiamato “Lavender” che ha processato dati di sorveglianza di massa — tabulati telefonici, connessioni sociali, pattern comportamentali — e ha segnalato fino a 37.000 palestinesi come potenziali bersagli.

Un secondo sistema, “Where’s Daddy?”, tracciava questi individui via geolocalizzazione del telefono e avvisava gli operatori quando il bersaglio arrivava a casa. A casa. Con la famiglia.

Il tempo di revisione umana per ogni bersaglio? Circa 20 secondi. Abbastanza per controllare un nome. Non abbastanza per mettere in discussione un algoritmo.

Il sistema aveva un tasso di errore noto del 10%. Vuol dire che circa 3.700 di quei 37.000 segnalati erano probabilmente identificati per errore — poliziotti, operatori umanitari, persone che condividevano un nome con qualcun altro. Gli esperti ONU hanno riportato che oltre 15.000 civili sono morti nelle prime sei settimane in cui questi sistemi sono stati pesantemente utilizzati per la selezione degli obiettivi.

Non fantascienza. È già successo. E quei sistemi di IA erano enormemente più stupidi di quello che OpenAI sta mettendo sulle reti classificate adesso. Pazzesco, no?

Il precedente libico

Nel marzo 2020, un drone turco Kargu-2 ha dato la caccia e attaccato bersagli umani in Libia senza richiedere alcuna connessione tra l’operatore e l’arma. Un rapporto del Consiglio di Sicurezza ONU lo descriveva come una capacità “fire, forget and find.” Il drone ha selezionato i propri bersagli da solo.

Tecnologia del 2020. Primitiva rispetto a GPT-4 o qualunque cosa OpenAI stia dispiegando adesso.

Il problema della scala

Il DARPA sta lavorando su sciami di 250 droni letali autonomi. L’India vuole sciami da 1.000 droni. Il Segretario Generale dell’ONU ha chiesto un trattato vincolante per bandire le armi autonome entro il 2026.

Adesso aggiungiamo a questo quadro i modelli linguistici più potenti del mondo. Modelli che possono processare rapporti di intelligence, incrociare database, identificare pattern su milioni di dati e generare raccomandazioni operative.

Ecco cosa va sulle reti classificate.


L’AI Act europeo non ci protegge (e l’Italia lo sa)

Qui arriva la parte che a noi italiani ed europei dovrebbe far riflettere davvero.

L’EU AI Act — entrato in vigore il 1° agosto 2024 — è il regolamento più ambizioso al mondo sull’intelligenza artificiale. L’Italia si è mossa velocemente con il D.lgs. 132/2025, individuando AgID e ACN come autorità competenti. Entro agosto 2026 entreranno in vigore sanzioni che possono raggiungere i 35 milioni di euro o il 7% del fatturato globale.

Pazzesco, no? Finalmente qualcuno che regola l’IA!

Solo che c’è un dettaglio non proprio trascurabile. L’AI Act esclude esplicitamente gli usi militari, di difesa e di sicurezza nazionale dal suo ambito di applicazione. Il Considerando 23 lo dice chiaramente: la difesa resta competenza esclusiva degli Stati membri.

Tradotto: possiamo multare OpenAI per come tratta i dati degli utenti italiani (e l’abbiamo fatto), ma non possiamo dire nulla quando la stessa tecnologia viene usata per bombardare qualcuno dall’altra parte del mondo.

E nel frattempo, il nostro stesso Ministero della Difesa ha approvato la strategia “IA e Difesa — Edizione 2026”, un documento che il Ministro Crosetto ha fortemente voluto e che prevede l’integrazione “rapida, sistemica e permanente” dell’IA in tutti gli ambiti della difesa italiana. La NATO, con il sistema Palantir Maven Smart System, sta già usando l’IA per la fusione delle informazioni, la designazione degli obiettivi e l’accelerazione del processo decisionale sul campo di battaglia.

Noi non siamo spettatori di questa storia. Ci siamo dentro fino al collo!


La visione del futuro di cui nessuno parla

L’accordo col Pentagono non è un punto di arrivo. È una linea di partenza. E il traguardo fa paura.

Sorveglianza di massa, industrializzata

L’IA non rende la sorveglianza semplicemente possibile. La rende automatica.

Adesso la sorveglianza richiede esseri umani. Analisti che leggono comunicazioni intercettate, revisori che controllano filmati delle telecamere, detective che collegano puntini tra dati diversi. È costoso e lento. Ecco, questa lentezza non è un bug — è una feature. L’attrito è ciò che impedisce ai governi di sorvegliare tutti, tutto il tempo.

L’IA rimuove quell’attrito.

Dario Amodei, CEO di Anthropic, ha spiegato perché la sua azienda ha tracciato la linea: l’IA permette a un governo di assemblare “dati sparsi e individualmente innocui su singoli americani in un quadro completo della vita di qualsiasi persona — automaticamente e su scala massiva.”

I dati di geolocalizzazione del telefono. La cronologia degli acquisti. Le connessioni sui social. I metadati delle email. Ogni pezzo singolarmente non è nulla. Ma un modello di IA può cucirli insieme in un profilo completo di chi sei, dove vai, con chi parli e cosa pensi.

E può farlo per tutti. Simultaneamente. Senza stancarsi e senza fare domande.

Altman dice che l’accordo vieta la “sorveglianza di massa domestica.” Ma il problema è che la definizione di “domestico” diventa sfumata molto in fretta. Che dire di un cittadino americano che vive all’estero? Delle comunicazioni che attraversano i confini? Dei dati di cittadini stranieri — tipo noi — che risiedono su server americani?

E chi fa rispettare il divieto? OpenAI dice che dispiegherà personale con autorizzazione di sicurezza per monitorare l’uso. Un pugno di dipendenti aziendali che controllano come l’intero esercito americano usa la loro tecnologia su reti classificate — reti dove, per definizione, gli esterni non possono vedere cosa succede.

Catene di uccisione autonome

Ecco cosa vuol dire in pratica “responsabilità umana nell’uso della forza”: un essere umano da qualche parte nella catena clicca “approva.”

Ma che aspetto ha quell’approvazione quando l’IA ha già identificato il bersaglio, calcolato il punteggio di minaccia, raccomandato la risposta e selezionato l’arma? L’essere umano non sta prendendo la decisione. Sta timbrando la decisione dell’IA. Esattamente come le revisioni da 20 secondi a Gaza.

Thomas Wright della Brookings Institution l’ha detto chiaramente: “Richiedere accesso incondizionato prima che questi sistemi siano pronti non è un’affermazione di autorità. È una scommessa che le incognite non contino.”

Le incognite includono: possono i modelli di livello GPT distinguere in modo affidabile tra un combattente e un civile da un filmato drone? Possono tenere conto del contesto culturale nell’analisi di intelligence? Possono capire che la persona che porta quello che sembra un’arma potrebbe portare un attrezzo agricolo?

La risposta, adesso, è no. Anche Anthropic lo ha riconosciuto, dicendo che i propri modelli “non sono affidabili abbastanza per essere usati in armi completamente autonome” e che “permettere ai modelli attuali di essere usati in questo modo metterebbe in pericolo i soldati americani e i civili.”

Questo era l’argomento di Anthropic. Il Pentagono l’ha definito “woke.”

Il problema della normalizzazione

La cosa più pericolosa di questo accordo non è l’accordo in sé. È quello che viene dopo.

Una volta che l’IA è sulle reti classificate, diventa infrastruttura. Viene integrata nei flussi di lavoro. Le persone ci fanno affidamento. E le garanzie che esistono oggi? Diventano negoziabili. Perché il prossimo rinnovo contrattuale non avverrà in pubblico. Avverrà dietro barriere di classificazione, dove nessuno fuori dal Pentagono e OpenAI saprà cosa è cambiato.

Oggi: “niente sorveglianza di massa, niente armi autonome.” L’anno prossimo: “targeting autonomo limitato in scenari definiti.” L’anno dopo: “uso ampliato coerente con l’ambiente di minaccia in evoluzione.”

Così funziona il mission creep istituzionale. Non con salti drammatici, ma con piccole ridefinizioni di termini che già suonavano flessibili.


Ogni contraddizione, con le prove

Sam Altman è bravissimo a dire la cosa giusta al momento giusto. Ecco cosa ha detto e cosa è realmente successo.

“Open-source, per l’umanità” — Chiusa, per profitto

2015: Lo statuto fondativo di OpenAI si impegnava a “far avanzare l’intelligenza digitale nel modo più probabile di giovare all’umanità nel suo complesso, senza essere condizionati dalla necessità di generare rendimento finanziario.” La ricerca veniva pubblicata liberamente. Il codice veniva condiviso.

2019: OpenAI ha creato una sussidiaria “capped-profit” che permetteva rendimenti fino a 100 volte l’investimento. Microsoft ha investito 1 miliardo di dollari. Comunicazioni interne del 2016-2017, rivelate dalla inchiesta The OpenAI Files, mostrano il co-fondatore Greg Brockman scrivere: “cannot say that we are committed to the non-profit. don’t want to say that we’re committed.”

2025: OpenAI ha completato la conversione a Public Benefit Corporation for-profit valutata 500 miliardi di dollari. SoftBank ha investito 41 miliardi.

“Non posseggo quote” — In realtà sì

Maggio 2023: Altman ha dichiarato al Senato americano: “Non ho equity in OpenAI. Lo faccio perché ci credo.”

Dicembre 2024: TechCrunch ha riportato che Altman deteneva partecipazioni indirette tramite fondi Sequoia e Y Combinator.

Ottobre 2025: Altman ha ricevuto equity diretta in OpenAI per la prima volta come parte della ristrutturazione for-profit.

“Servono regolamentazioni forti” — Le regolamentazioni sono un eccesso

Maggio 2023: Altman ha detto al Congresso che “un intervento regolatorio sarebbe fondamentale per mitigare i rischi di modelli sempre più potenti.”

Maggio 2025: Stesso uomo, stesso Senato. Ha concordato con il Senatore Ted Cruz che la “sovraregolamentazione” era il vero pericolo.

“20% della potenza di calcolo alla sicurezza” — Team sicurezza sciolti

2023: OpenAI ha promesso il 20% della potenza di calcolo al team Superalignment per la ricerca sulla sicurezza a lungo termine.

Maggio 2024: Entrambi i leader del team si sono dimessi. Jan Leike ha detto che “la cultura della sicurezza e i processi sono passati in secondo piano rispetto ai prodotti scintillanti.” È andato ad Anthropic. Il team è stato sciolto. La potenza di calcolo è andata a ChatGPT. Più tardi, il team AGI Readiness è stato smantellato. All’inizio del 2026, anche il team Mission Alignment. Tre team sulla sicurezza, spariti.

“Non sapevo degli NDA” — C’era la sua firma

2024: Quando gli NDA con clausola di clawback dell’equity sono diventati pubblici, Altman si è scusato e ha dichiarato di non esserne a conoscenza. Vox ha ottenuto documenti di incorporazione dell’aprile 2023 con la firma di Altman che autorizzava quelle clausole.

Daniel Kokotajlo, un ricercatore sulla sicurezza, ha rinunciato a equity pari all'85% del patrimonio netto della sua famiglia per mantenere il diritto di parlare liberamente dei problemi di sicurezza dell’azienda.

“Nessun uso militare” — Reti classificate del Pentagono

Fino al 10 gennaio 2024: La policy d’uso di OpenAI proibiva esplicitamente le “applicazioni militari e belliche”.

10 gennaio 2024: Quelle parole sono state silenziosamente cancellate. Nessun post sul blog. Nessun annuncio. L’ha notato The Intercept.

Novembre 2025: OpenAI ha rimosso la parola “safely” dalla sua mission. Prima: “safely benefits all of humanity.” Dopo: “benefits all of humanity.”

Febbraio 2026: Dispiegamento completo sulle reti classificate del Pentagono. Poche ore dopo che l’azienda che aveva detto “no” era stata messa nella lista nera.

“Condividiamo le linee rosse di Anthropic” — Abbiamo firmato ciò che Anthropic ha rifiutato

L’ultima, freschissima. In un memo ai dipendenti, Altman ha detto che OpenAI avrebbe “sostanzialmente seguito l’approccio di Anthropic” nella stessa situazione.

Ma non sono nella stessa situazione. Anthropic è nella lista nera. OpenAI ha il contratto. Dire che condividi i principi di qualcuno mentre prendi l’accordo che loro hanno rifiutato è solo aria fritta.

Centinaia di dipendenti di Google e OpenAI hanno firmato una petizione chiedendo alle proprie aziende di seguire la posizione reale di Anthropic — non solo il suo linguaggio.


Lo schema è il punto

Cosa ha detto AltmanCosa ha fatto
“Open-source, per l’umanità”Corporation for-profit da 500 miliardi
“Non posseggo quote”Partecipazioni indirette, poi equity diretta
“Servono regolamentazioni forti”Ha definito la regolamentazione un “eccesso” due anni dopo
“20% del calcolo alla sicurezza”Sciolti 3 team sicurezza in 2 anni
“Non sapevo degli NDA”La sua firma era sui documenti
“Nessun uso militare e bellico”Ha cancellato il divieto e firmato col Pentagono
“Beneficia in sicurezza tutta l’umanità”Ha rimosso “in sicurezza” dalla missione
“Condividiamo le linee rosse di Anthropic”Ha firmato l’accordo che Anthropic ha rifiutato

Ogni singola posizione è stata abbandonata nel momento in cui è diventata scomoda. Non una volta. Non due. Otto volte, su documenti pubblici.

Non è una persona che ha cambiato idea. È uno schema. E lo schema dice: qualunque cosa Sam Altman dica oggi, fai il reverse engineering di ciò che ha bisogno che sia vero adesso, e capirai perché l’ha detto.


L’Italia ha capito prima degli altri (e adesso?)

Torniamo a noi. L’Italia nel 2023 ha fatto qualcosa che all’epoca sembrava eccessivo e che oggi sembra lungimirante. Il Garante della Privacy ha guardato OpenAI e ha detto: “Qui qualcosa non va.” Il resto del mondo ci ha riso dietro. Poi ci ha dato ragione.

Fanpage.it ha pubblicato un commento che vale la pena citare: OpenAI ha venduto l’anima al diavolo. Il rifiuto di Anthropic non era scontato, era “un no prezioso”, un sacrificio che OpenAI ha reso vano “per potere, per soldi, per posizionamento” e “per non mettersi contro Donald Trump.”

L’ANSA lo ha analizzato con toni altrettanto netti: o l’intera manovra è stata architettata per eliminare Anthropic dai giochi e favorire OpenAI, oppure i paletti di OpenAI non sono poi così simili a quelli di Anthropic come Altman vuole far credere.

E Il Post — che i fatti li racconta sempre con la pazienza che ci vuole — ha messo in fila la cronologia con una chiarezza che lascia poco spazio alle interpretazioni.

La domanda per noi è questa: l’Italia e l’Europa possono continuare a regolare l’uso civile dell’IA con il rigore che giustamente pretendiamo, e contemporaneamente essere alleati militari di un paese che mette la stessa tecnologia su reti classificate senza alcun controllo esterno? Il nostro Ministero della Difesa sta integrando l’IA nella strategia militare italiana. La NATO usa già sistemi Palantir per il targeting.

Insomma, la nostra posizione è contraddittoria. Multe per l’uso improprio dei dati da un lato, silenzio sull’uso militare dall’altro. E sì, l’AI Act esonera esplicitamente gli usi militari. Un bel buco normativo, non trovate?


Cosa possiamo fare, concretamente

Non cambierai le scelte di approvvigionamento del Pentagono. Però non sei impotente.

L’IA che usi è una scelta. ChatGPT non è l’unica opzione. Non lo è mai stata. Claude, Gemini, Copilot, Llama, Mistral — ci sono modelli costruiti da aziende con valori, strutture e rapporti diversi col potere militare. Usane più di uno. Confrontali. Non lasciare che la comodità ti chiuda dentro un unico fornitore le cui priorità stanno cambiando sotto i tuoi piedi.

Le skill di IA sono portatili. Un prompt ben fatto funziona su ChatGPT, Claude, Gemini o qualsiasi altro modello. Quando scarichi e salvi le tue skill di IA, sono tue. Sono file di testo. Non gli importa quale modello le esegue. Se il tuo provider attuale cambia direzione — di nuovo — le tue skill continuano a funzionare.

Fai attenzione a chi dice no. In un settore dove gli incentivi finanziari spingono tutti a dire sì, le aziende che dicono no ti stanno comunicando qualcosa sui loro valori reali. Non il marketing. I valori. Anthropic ha appena perso un contratto da 200 milioni di dollari ed è stata messa nella lista nera dal governo federale perché ha rifiutato di rimuovere le garanzie sulla sicurezza. Gli è costato qualcosa di reale.

Segui le dichiarazioni di missione, non i comunicati stampa. Quando un’azienda cancella la parola “safely” dalla propria missione e mette la tecnologia su reti militari classificate nello stesso trimestre, non è un segnale misto. È un segnale chiaro.


La domanda a cui nessuno vuole rispondere

Ecco cosa mi toglie il sonno su questa faccenda.

La tecnologia in sé è neutra. I modelli linguistici processano testo. Predicono token. Non gli interessa se il testo è una bozza di email o un rapporto di intelligence, se i token rappresentano una ricetta o una lista di bersagli.

La domanda è chi li controlla e quali garanzie esistono.

Adesso le garanzie sono: un contratto che Sam Altman dice includa restrizioni di sicurezza, controllato da un pugno di dipendenti OpenAI su reti classificate dove nessuna supervisione esterna è possibile, firmato da un CEO che ha infranto ogni promessa importante dell’ultimo decennio.

Questa è la garanzia tra “assistente IA che ti aiuta a scrivere meglio” e “sistema IA che processa dati di sorveglianza di massa per il più grande esercito del mondo.”

E se la garanzia fallisce? Non lo sapremo. Perché è classificata.


Skill correlati