Questa è LA notizia di questa settimana.
Il panorama dell’Intelligenza Artificiale ha appena subito una scossa tellurica che sposta l’asse del dibattito dall’innovazione tecnologica direttamente al centro della scacchiera geopolitica e militare. Non stiamo più parlando solo di produttività o di automazione, ma di una scelta di campo che definirà il rapporto tra codice, etica e sovranità nazionale per i prossimi decenni.
Di seguito la cronaca dei fatti che stanno infiammando il dibattito a inizio marzo 2026.
Tutto è iniziato con lo scontro frontale tra Anthropic e l’amministrazione statunitense: il Pentagono ha richiesto ad Anthropic di eliminare le restrizioni etiche dai suoi modelli Claude per consentirne l’uso in operazioni di sorveglianza di massa e sistemi d’arma autonomi.
L’azienda guidata da Dario Amodei ha opposto un netto rifiuto citando i principi della propria Constitutional AI e la consapevolezza della fallibilità dei suoi modelli. Per intenderci, da un lato la convinzione che la sorveglianza di massa è una pratica antidemocratica, dall’altra il rischio che per un errore del modello vengano uccisi civili o soldati amici.
Per tutta risposta, il Segretario Pete Hegseth ha definito Anthropic un “rischio per la sicurezza nazionale” bandendo di fatto l’uso della loro tecnologia da tutte le agenzie federali. E questo è già di per sé un segnale durissimo verso chiunque tenti di porre limiti etici all’uso bellico dell’AI.
Mentre Anthropic veniva messa alla porta OpenAI ha colto l’occasione per consolidare la propria posizione strategica: Sam Altman ha annunciato un accordo senza precedenti per integrare i modelli GPT direttamente nelle reti classificate del governo accettando la clausola di “qualsiasi uso lecito” stabilito dalle autorità militari.
Questa presa di posizione ha scatenato una reazione civile immediata: il movimento #QuitGPT. In pochi giorni, oltre 2,5 milioni di utenti hanno cancellato il proprio abbonamento Plus in segno di protesta contro quella che viene definita la “militarizzazione definitiva” dell’AI generativa.
In questo scenario, Google non è rimasta a guardare e dopo aver rimosso i vecchi paletti etici ereditati dal Project Maven, Mountain View è diventata il pilastro tecnologico della nuova piattaforma GenAI.mil quindi Gemini è ora lo strumento standard per 3 milioni di dipendenti del Ministero della Guerra. Pare inoltre che, nonostante una crescente rivolta interna dei dipendenti di Google, la dirigenza abbia confermato l’impegno totale nel fornire infrastrutture AI per la difesa, puntando alla leadership assoluta nei contratti governativi.
Siamo in un momento di svolta dove la distinzione tra AI civile e AI militare si è fatta improvvisamente sottile, quasi invisibile e le aziende produttrici di LLM si sono trovate davanti a un bivio: mantenere la propria indipendenza etica a costo dell’isolamento politico, o integrarsi nell’apparato di sicurezza nazionale per garantirsi capitali e protezione.
Lo sapevamo che poteva accadere? Sì, lo sapevamo, ma adesso non possiamo permetterci di ignorare le conseguenze di tutto ciò.
Ho molto da dire: sulle implicazioni etiche, sulla nostra responsabilità come utenti di LLM e su come navigare in queste acque torbide senza perdere la bussola. Ma non lo farò qui, riservo le mie riflessioni per una puntata speciale del mio podcast “Lavoro Meglio con l’AI” dove analizzeremo cosa significa tutto questo per chi, come noi, usa questi strumenti ogni giorno e vuole continuare a farlo in modo consapevole ed etico.
L’appuntamento è per lunedì 9 marzo a fine giornata.