Qualche giorno fa mi sono chiesto: cosa sta per accadere? La risposta è arrivata immediatamente: la Corte Suprema degli Stati Uniti ha annullato i dazi di Donald Trump, e Trump li ha riconfermati.
Tecnicamente parlando, negli Stati Uniti è in corso una guerra civile, e questo spiega perché il ministero della Guerra degli Stati Uniti, Pete Hegseth, abbia dato tempo ad Anthropic fino a venerdì per accettare l’uso militare incondizionato della sua tecnologia, altrimenti sarebbe stata costretta a conformarsi ai poteri federali di emergenza.
La funzione primaria della tecnologia intelligente è la guerra, questo è chiarissimo. “Non lasceremo che nessuna azienda decida i termini delle nostre decisioni operative”, ha scritto Sean Parnell. Ha avvertito che Anthropic ha “tempo fino alle 17:01 ET di venerdì (le 23:01
del 28 febbraio, in Italia ndr) per decidere. Altrimenti, interromperemo la nostra partnership con Anthropic e la considereremo un rischio per la supply chain (catena di fornitura)”. Ciò implica una completa militarizzazione dell’intelligenza artificiale.
Anthropic, produttrice del chatbot Claude (considerato una valida alternativa a ChatGPT per la capacità di analisi e sintesi, ndr), può permettersi di perdere un contratto nel settore della difesa. Ma l’ultimatum di questa settimana del Segretario alla Difesa Pete Hegseth ha posto rischi più ampi, proprio nel momento di massima ascesa dell’azienda, da un laboratorio di ricerca informatica poco conosciuto a San Francisco a una delle startup più redditizie al mondo.
Inoltre il 27 febbraio il Financial Times ha messo in guardia dai pericoli di un’implosione della bolla dell’intelligenza artificiale.











