L’annuncio è arrivato il 12 gennaio, quasi in sordina, ma il suo peso politico è tutt’altro che marginale. Durante una visita al quartier generale di SpaceX in Texas, il Segretario alla Difesa degli Stati Uniti Pete Hegseth ha confermato una partnership tra il Pentagono e Grok, il chatbot di intelligenza artificiale sviluppato dalla società xAI di Elon Musk. L’obiettivo dichiarato è rafforzare la strategia “AI first” dell’amministrazione statunitense, puntando su sistemi di intelligenza artificiale “di frontiera” a supporto delle forze armate.
Preso isolatamente, l’annuncio potrebbe sembrare una delle tante tappe della corsa globale all’AI militare. Ma il contesto cambia radicalmente la lettura della notizia. La scelta di Grok arriva subito dopo l’esplosione del “caso Grok” in Europa, tra polemiche sui deepfake, contenuti problematici generati dall’AI e un clima di crescente attenzione regolatoria su modelli considerati rischiosi. Ed è proprio questo tempismo a rendere la decisione del Pentagono politicamente significativa.
Una scelta che non è neutra
Grok non è un sistema qualsiasi. È un chatbot progettato per distinguersi dai modelli più “controllati”, rivendicando una maggiore libertà espressiva e un approccio critico verso quella che Musk definisce la “censura” delle piattaforme tradizionali. Proprio per questo, negli ultimi mesi è finito al centro di controversie, soprattutto in Europa, dove autorità e governi stanno rafforzando l’enforcement su intelligenza artificiale, contenuti generati e tutela dei diritti fondamentali.
Sceglierlo adesso, nel pieno di questo dibattito, equivale a un messaggio implicito ma chiaro: per Washington, le criticità sollevate oltre Atlantico non rappresentano un ostacolo quando sono in gioco interessi strategici e militari. Non è solo una decisione tecnica, ma una presa di posizione.
Due modelli a confronto
La mossa del Pentagono rende evidente la distanza tra due approcci alla governance dell’intelligenza artificiale. Da un lato, l’Unione europea sta costruendo un sistema basato su valutazione del rischio, limiti all’uso e responsabilità ex ante, con l’AI Act come architrave normativa. Dall’altro, gli Stati Uniti continuano a privilegiare una logica di rapidità e supremazia tecnologica: l’AI va sviluppata e dispiegata prima possibile, soprattutto se considerata un vantaggio competitivo sul piano geopolitico.
In questo quadro, l’intelligenza artificiale non è più soltanto uno strumento di innovazione, ma diventa un asset di potere. E quando entra nel perimetro della sicurezza nazionale, tende a sottrarsi a qualsiasi tentativo di armonizzazione regolatoria internazionale.
Il fattore Musk
Non va sottovalutata nemmeno la dimensione simbolica della scelta. Elon Musk è ormai uno dei critici più espliciti del modello regolatorio europeo sul digitale. Affidare a una tecnologia sviluppata da una sua azienda un ruolo nel sistema militare statunitense significa, di fatto, legittimare Grok nel momento di massima contestazione pubblica. È una sorta di “bollino politico” che rafforza la posizione del chatbot e rende più complesso, per i regolatori europei, trattarlo come un semplice caso problematico.
Se un’AI è adottata dal Dipartimento della Difesa degli Stati Uniti, il suo status cambia: da prodotto controverso diventa tecnologia strategica.
Una sfida implicita all’Europa
È eccessivo parlare di provocazione diretta, ma è difficile non leggere la decisione come una sfida implicita al modello europeo. Il messaggio è chiaro: gli standard e le cautele europee non sono destinati a diventare il riferimento globale, soprattutto quando entrano in gioco sicurezza e difesa. L’AI, in questa visione, non è prima di tutto una questione di diritti, ma di potenza.
Lo scontro che prende forma
Il caso Grok segna così un passaggio simbolico. Da un lato, un’Europa che tenta di governare l’intelligenza artificiale come infrastruttura civile, ponendo limiti e responsabilità. Dall’altro, una superpotenza che la integra sempre più apertamente nei propri apparati militari, rivendicando autonomia decisionale e velocità d’azione.
Lo scontro non riguarda un singolo chatbot, ma due modelli opposti di futuro digitale. E la scelta del Pentagono mostra che questa frattura non è più teorica: sta già diventando una linea di divisione concreta tra alleati che, sull’AI, parlano sempre più linguaggi diversi.
L’articolo Dopo il caso Grok, il Pentagono sceglie l’AI di Musk: perché la mossa riapre lo scontro con l’Europa proviene da TGWEBAI.