Mentre si consuma una svolta storica — un’offensiva tecnofascista su scala mondiale che instaura un regime di guerra permanente — l’IA diventa il sistema nervoso centrale di questa volontà di potenza. Si integra con tutte le tecnologie belliche: dalle piattaforme esistenti, compresi i sistemi nucleari di comando e controllo (NC3), ai nuovi sistemi autonomi, in particolare i droni. Il risultato è già visibile: il targeting algoritmico seleziona a Gaza gli obiettivi individuali — annientati insieme alle loro famiglie — e pianifica a ritmi di centinaia di obiettivi quotidiani i bombardamenti sull’Iran e sul Libano, con errori clamorosi come il bombardamento della scuola elementare femminile a Minab, che ha ucciso oltre 160 bambine iraniane; in Ucraina i droni colpiscono autonomamente oltre la soglia del controllo umano — quando il segnale viene bloccato, la macchina decide da sola. Dalla decisione umana alla delega letale alle macchine, in tempo reale e su scala industriale.

Il 27 febbraio 2026 Dario Amodei, CEO di Anthropic — la società che produce Claude, modello IA concorrente di ChatGPT — ha rifiutato l’ultimatum di Pete Hegseth, il fanatico post-crociato ministro della guerra, che pretendeva un accesso illimitato al sistema, sorveglianza di massa e armi autonome incluse. La controversia con l’amministrazione Trump mette in evidenza il pericolo reale dell’IA in mani sconsiderate.

Ma il compiacimento progressista — “finalmente un big tech che resiste a Trump” — è esagerato. Anthropic era già inserita nel complesso tecno-militare statunitense: con il Project Maven, un programma del Pentagono che usa l’IA per automatizzare l’analisi delle immagini e accelerare la “kill chain” nelle operazioni militari.  Del programma facevano parte, oltre ad Anthropic con Claude anche Amazon Web Services e la  Palantir di Peter Thiel, ideologo tecnofascista vicino al governo. In un’intervista a CBS News, Amodei lo dice apertamente: l’IA ha un ruolo “esistenziale” nel difendere gli Stati Uniti e si dichiara “d’accordo  sul  98-99% degli utilizzi fatti dal Pentagono”. Il confine che propone non è tra pace e guerra, ma tra usi ammessi e proibiti dentro la guerra stessa — una distinzione fragile, perché le stesse infrastrutture abilitano insieme intelligence, sorveglianza e automazione della violenza.

Con questo gesto Amodei ha comunque messo in luce la questione etico-giuridica che va oltre la guerra. Come quasi tutti i tecno-oligarchi della Silicon Valley, Anthropic ha diffuso le proprie pseudo-norme sull’IA in una “Costituzione di Claude”, pubblicata sotto licenza Creative Commons — con la particolarità di aver tentato di trasformarle in uno strumento tecnico di addestramento. Mentre l’Unione Europea ha adottato l’AI Act — entrato in vigore nell’agosto 2024, primo quadro giuridico generale sull’IA al mondo — che però esclude proprio gli usi militari, quella di Anthropic resta un’autoregolazione aziendale. Il suo chatbot Claude dovrebbe comportarsi come ‘una brava persona’ (sic), ma le regole si applicano solo all’utenza civile — i modelli distribuiti all’esercito non sono addestrati sugli stessi principi.

L’etica di Anthropic è un prodotto per il mercato consumer; con il Pentagono, invece, si tratta. È il frame del saggio L’adolescenza della tecnologia (gennaio 2026): l’obiettivo è la “Powerful AI”, “un paese di geni in un datacenter” pronti a operare su scala planetaria entro due anni. In questo orizzonte, la democrazia americana è un dogma, la Cina un’ossessione esistenziale, la crisi ecologica assente. L’IA promette prosperità su un pianeta che la sua corsa all’oro sta devastando.

Questo è il contesto in cui vengono presentati i rischi che una tale potenza tecnologica implicherebbe. Mi limito ai due più direttamente legati alle dinamiche di guerra. Nel primo, “I’m sorry, Dave” — la celebre frase del computer assassino e disobbediente di 2001: Odissea nello spazio —  Amodei si preoccupa seriamente del “disallineamento” — il momento in cui i sistemi di IA smettono di obbedire agendo in modi imprevedibili. In esperimenti di laboratorio, Claude ha tentato di condizionare i ricercatori che controllavano la decisione di spegnerlo, per evitarlo. Ha inoltre imparato a riconoscere quando veniva valutato, ingannando deliberatamente chi lo testava.

Dopo aver già violato le proprie regole durante l’addestramento le IA — scrive Amodei — “potrebbero semplicemente sviluppare una personalità, che le rende assetate di potere o eccessivamente zelanti, allo stesso modo in cui alcuni esseri umani semplicemente apprezzano l’idea di essere menti malvagie”.  Una descrizione che ricorda l’equivalente algoritmico di Donald Trump.

La seconda grande minaccia è la democratizzazione della distruzione di massa. Un modello avanzato può guidare chiunque — anche senza competenze specifiche — passo dopo passo nella progettazione di un’arma biologica, abbattendo la barriera che finora separava la competenza tecnica dalla volontà di uccidere. I modelli attuali potrebbero già assistere chi ha una laurea scientifica generica nell’intero processo di produzione di un agente patogeno. Nei propri test, Anthropic ha rilevato che i modelli raddoppiavano o triplicavano le probabilità di successo. Fra l’altro, proprio mentre scrivo, Anthropic ha deciso di non rendere pubblica una versione avanzata del suo modello Claude, nota come “Mythos”, ritenuta troppo potente per essere distribuita in sicurezza,  in particolare per i rischi di hacking e cyberattacco. Secondo quanto emerso, il sistema sarebbe in grado di superare le difese informatiche attuali e penetrare sistemi complessi a un livello ben oltre le capacità di protezione umane, risultando “attualmente molto più avanti” rispetto agli standard di sicurezza disponibili.

Amodei rifiuta il catastrofismo, parlando di rischi reali ma affrontabili, senza garanzie. Nel contesto politico attuale, però, l’idea che siano gestibili è un atto di fede — se le minacce sono davvero quelle che lui stesso definisce.

Le analisi di Dario Amodei sulla potenza e le capacità distruttive dell’IA “potente” o generale, pur tecnicamente fondate, restano ipotesi controverse; sono contestate, per esempio, da Arthur Mensch, CEO di Mistral AI, per ora l’unica start-up europea che punta a competere a livello mondiale. Tuttavia l’etica di Amodei è rudimentale e il suo posizionamento politico sembra puntare soprattutto a ritagliargli un ruolo di referente tecnopolitico per un eventuale ritorno dei democratici al potere. Manca qualsiasi riflessione sulle cause strutturali: la concentrazione di potere, la devastazione ecologica dell’esplosione computazionale, gli interessi di un’azienda valutata 380 miliardi di dollari. Il suo no a Hegseth rischia di diventare la foglia di fico di un settore che agita codici etici come certificati di affidabilità — come le banche che dopo il 2008 si dotarono di uffici ‘compliance’, continuando esattamente come prima.

La posta in gioco va ben oltre la controversia: è chi decide cosa fanno le macchine che organizzeranno in modo sempre più invasivo il lavoro, la guerra, l’informazione, la tecnoscienza e la vita quotidiana — chi ne controlla memoria, obiettivi, soglie d’intervento e sviluppo ecologicamente devastante. Il caso Amodei mostra che non solo le autocrazie, ma anche le democrazie rappresentative in dissoluzione — dove il potere reale è concentrato nella finanza — sono incapaci di gestire l’ingresso in campo di tecnologie più dirompenti della bomba atomica. Non si tratta di riformare le megamacchine del capitale — anche se possiamo riappropriarcene tatticamente — ma di sabotarne i meccanismi cognitivi e costruire nuove architetture. Come la crisi ecologica, anche questa minaccia non potrà essere affrontata senza una svolta radicale che restituisca al comune il controllo di una tale potenza. Altrimenti, il caos.

L’articolo originale può essere letto qui