{"id":1301687,"date":"2021-02-20T17:29:22","date_gmt":"2021-02-20T17:29:22","guid":{"rendered":"https:\/\/www.pressenza.com\/?p=1301687"},"modified":"2021-02-20T17:33:19","modified_gmt":"2021-02-20T17:33:19","slug":"intelligenza-artificiale-e-stabilita-strategica","status":"publish","type":"post","link":"https:\/\/www.pressenza.com\/it\/2021\/02\/intelligenza-artificiale-e-stabilita-strategica\/","title":{"rendered":"Intelligenza artificiale e stabilit\u00e0 strategica"},"content":{"rendered":"<p>Costretti a convivere con una miriade di armi nucleari \u2013 molte delle quali pronte a venir lanciare nel giro di pochi minuti \u2013 dobbiamo augurarci che gli sviluppi militari attualmente in corso almeno non compromettano il presente delicato stato di stabilit\u00e0 strategica a evitarci il rischio di un confronto nucleare in uno dei vari fronti caldi delle attuali tensioni mondiali.<\/p>\n<p>Il concetto di stabilit\u00e0 strategica comprende due aspetti: la stabilit\u00e0 in situazioni di crisi e la stabilit\u00e0 rispetto alla corsa agli armamenti. Si richiede che anche durante una crisi internazionale, ovvero un conflitto convenzionale, gli stati coinvolti non intensifichino il conflitto fino alla prospettiva dell&#8217;uso di armi nucleari (<em>nuclear escalation<\/em>). Ci\u00f2 comporta per le parti implicate un atteggiamento di &#8220;non uso per primi&#8221; delle armi nucleari, ma anche che la situazione sia robusta a fronte di un&#8217;escalation nucleare involontaria o dovuta a informazioni errate ovvero a guasti dei sistemi di comando e controllo.<\/p>\n<p>Una corsa agli armamenti si evita quando le parti in conflitto hanno incentivi a evitare cicli di azione-reazione militari, che potrebbero anche portare a favorire strategie miranti ad attacchi nucleari disarmanti (<em>first-strike capability<\/em>) o a degradare le forze di reazione dell&#8217;avversario.<\/p>\n<p>Un grave fattore di rischio strategico viene dall&#8217;attuale confronto fra Cina, Russia e Stati Uniti per raggiungere la superiorit\u00e0 nei campi scientifici pi\u00f9 avanzati: volo ipersonico, sistemi spaziali, biotecnologie, gestione di enormi masse di dati, sistemi d&#8217;arma autonomi letali, robotica, armi a energia diretta, tecnologia quantistica e, <em>in primis<\/em>, l&#8217;intelligenza artificiale (AI), che entra in molte altre tecnologie come componente essenziale o potenziante.<\/p>\n<p>I recenti significativi sviluppi dell&#8217;intelligenza artificiale, nella forma di apprendimento automatico (<em>machine learning<\/em> ML), hanno rinnovato l&#8217;attenzione anche per applicazioni in ambito militare, sia per armamenti strategici che tattici, e vari ricercatori stanno indagando appunto sui rischi che pu\u00f2 comportare una massiccia introduzione di automatismi e intelligenza artificiale nei sistemi strategici.<\/p>\n<p>&nbsp;<\/p>\n<p><strong>Intelligenza artificiale, apprendimento automatico e autonomia<\/strong><\/p>\n<p>L&#8217;intelligenza artificiale viene intesa popolarmente come la capacit\u00e0 di calcolatori o robot di uguagliare \u2013 se non superare \u2013 gli esseri umani nello sviluppare una comprensione operativa dell&#8217;ambiente. Un&#8217;AI di questo genere \u00e8 alla base della letteratura e del cinema di fantascienza, ma \u00e8 ritenuta dalla maggior parte degli esperti una sfida tecnologica impossibile.<\/p>\n<p>Una caratterizzazione pi\u00f9 realistica e affrontabile si basa sul concetto di AI come &#8220;la scienza e l&#8217;ingegneria per costruire macchine in grado di compiere cose che richiederebbero intelligenza se fatte da uomini&#8221;. In pratica attualmente consiste in complessi programmi software che possono eseguire precisi compiti &#8220;intelligenti&#8221;, come riconoscere oggetti o esseri viventi dalle immagini, interpretare segnali di vario tipo, individuare situazioni anomale, tradurre linguaggi o elaborare strategie per giochi.<\/p>\n<p>Fra i molteplici approcci tecnologici per lo sviluppo di vari livelli di AI, attualmente \u00e8 particolarmente sviluppato l&#8217;apprendimento automatico (ML), basato su una variet\u00e0 di tecniche matematiche: metodi algoritmici, apprendimento statistico, teoria dell&#8217;ottimizzazione, teoria dei giochi, reti neurali, &#8230;; dopo una fase di &#8220;apprendimento&#8221; basata sulla presentazione di classi selezionate di dati annotai o classificati e la definizione di regole sulle relazioni tra i dati stessi, al sistema si richiede di estrarre informazioni da una variet\u00e0 di dati &#8220;reali&#8221; della stessa classe per risolvere problemi specifici o proporre previsioni. I sistemi di ML possono migliorare le prestazioni nel tempo poich\u00e9 i modelli creati si adattano a nuovi dati senza che un essere umano programmi esplicitamente nuove regole.<\/p>\n<p>L&#8217;apprendimento automatico \u00e8 utile per trovare connessioni tra i dati, il che lo rende uno strumento potente per automatizzare qualsiasi attivit\u00e0 che richieda un riconoscimento di strutture e di segnali (visivi, sonori o elettromagnetici). Le attivit\u00e0 di gestione dei dati possono includere classificazione, analisi predittiva, rilevamento di anomalie, individuazione di falsi positivi\/negativi, manipolazione, generazione di dati sintetici e ottimizzazione, tracciamento di connessioni precedentemente inimmaginabili.<\/p>\n<p>Tutte queste capacit\u00e0 trovano un&#8217;ampia portata in ambito militare: per migliorare le prestazioni dei sistemi di gestione dei dati per <em>intelligence<\/em>, sorveglianza e ricognizione (ISR), logistica e manutenzione, sicurezza e difesa da attacchi cibernetici, gestione della battaglia, addestramento, modellizzazione e simulazione; per potenziare le capacit\u00e0 percettive di qualsiasi sistema militare aumentando la possibilit\u00e0 che funzioni in modo autonomo in un ambiente dinamico e non strutturato; per permettere nuove forme di operazioni, come il coordinamento di molti (o moltissimi) sistemi autonomi (<em>swarming<\/em>) per obiettivi specifici.<\/p>\n<p>La vulnerabilit\u00e0 e la limitazione dell&#8217;apprendimento automatico dipendono dalla sua relazione con i dati: i suoi algoritmi sono validi solo quanto lo sono i dati su cui il sistema ML \u00e8 stato addestrato. Se l&#8217;insieme dei dati di addestramento non \u00e8 rappresentativo e privo di pregiudizi (i dati non sono quasi mai &#8220;neutri&#8221; o neutralizzabili), il sistema potrebbe fallire, funzionare male o dare informazioni errate o viziate da pregiudizi. Ci\u00f2 rappresenta una sfida critica per lo sviluppo di applicazioni nel contesto militare.<\/p>\n<p>Il fatto che le macchine apprendano trovando relazioni statistiche all&#8217;interno dei dati rende il loro funzionamento opaco e il loro comportamento potenzialmente imprevedibile. I sistemi di apprendimento automatico funzionano come una scatola nera: l&#8217;input e l&#8217;output del sistema sono osservabili, ma il processo computazionale che porta dall&#8217;uno all&#8217;altro \u00e8 difficile da capire per gli stessi progettisti del sistema, creando problemi di prevedibilit\u00e0. Si \u00e8 visto che impercettibili perturbazioni dei dati portano a errori clamorosi, per esempio nel riconoscimento di oggetti o esseri viventi. Nel contesto dei sistemi d&#8217;arma, questa imprevedibilit\u00e0 potrebbe ovviamente avere conseguenze drammatiche.<\/p>\n<p>Va tenuto presente che i sistemi di AI, sebbene possano superare gli esseri umani per molti compiti, non percepiscono le strutture a livello astratto, non hanno un modo naturale per affrontare struttura gerarchiche, n\u00e9 sono in grado di distinguere fra causalit\u00e0 e correlazione, e, soprattutto, mancano assolutamente del &#8220;buon senso&#8221;, che invece si rivelato spesso cruciale nel confronto strategico per evitare situazioni estreme e rischi gravissimi.<\/p>\n<p>L&#8217;apprendimento automatico pu\u00f2 essere impiegato per accrescere l&#8217;autonomia di una macchina, o di un sistema, la capacit\u00e0 di eseguire uno o pi\u00f9 compiti senza intervento umano, utilizzando le interazioni della programmazione del computer con l&#8217;ambiente. Un sistema robotico autonomo pu\u00f2 eseguire alcune attivit\u00e0 molto pi\u00f9 velocemente di quanto possa mai fare un qualsiasi essere umano o un apparato azionato da esseri umani; ci\u00f2 \u00e8 particolarmente attraente per le forze armate in compiti in cui il tempo \u00e8 un fattore critico come, ad esempio, per la difesa aerea o contro attacchi cibernetici.<\/p>\n<p>L&#8217;autonomia pu\u00f2 ridurre la necessit\u00e0 di mantenere un collegamento di comunicazione costante tra il robot e il comando militare, come invece \u00e8 attualmente necessario con i sistemi controllati a distanza. L&#8217;autonomia \u00e8 particolarmente utile anche per le cosiddette missioni noiose, sporche e pericolose (3D) in quanto rimuove i limiti che possono degradare le prestazioni umane. Garantisce l&#8217;accesso a teatri operativi altrimenti inaccessibili ai sistemi telecomandati o troppo rischiosi: aree protette da sistemi contro-intervento, anti-accesso e controllo d\u2019area (A2\/AD), acque profonde, l&#8217;Artico e lo spazio esterno. Infine, l&#8217;autonomia fornisce anche nuove opportunit\u00e0 per le operazioni collaborative in quanto consente ai sistemi d&#8217;arma di operare in grandi gruppi, o &#8220;sciami&#8221;, in un modo molto pi\u00f9 coordinato, strutturato e strategico che se ciascuno fosse controllato individualmente da un operatore umano.<\/p>\n<p>&nbsp;<\/p>\n<p><strong>Precedenti durante la guerra fredda<\/strong><\/p>\n<p>Sistemi con vari livelli di automazione sono da decenni presenti anche negli armamenti nucleari, in particolare negli apparati di allerta precoce, nei sistemi nucleari di comando, controllo e comunicazione (NC3), e nei sistemi di difesa anti-aerea e anti-missile, nonch\u00e9 nei vettori (aerei, missili) delle armi.<\/p>\n<p>Un pilastro fondamentale della deterrenza nucleare durante la guerra fredda \u00e8 stata l&#8217;esistenza in USA e URSS di forze nucleari in grado di sopravvivere a un primo attacco e infliggere danni di ritorsione inaccettabili per l&#8217;aggressore. Questo imperativo richiedeva lo sviluppo di sistemi resilienti di preallarme e di forme agili di comando e controllo che consentissero di identificare una minaccia e fornire una risposta adeguata entro un tempo limitato.<\/p>\n<p>Gi\u00e0 negli anni &#8217;60 si ricorse a una crescente automazione nei sistemi di comando e controllo, per la pianificazione logistica della trasmissione degli ordini di attacco, per il rifornimento in volo di bombardieri e per la guida dei missili verso il bersaglio. L&#8217;automazione del rilevamento delle minacce poteva fornire pi\u00f9 rapidamente le informazioni radar ai responsabili delle decisioni e quindi dare loro pi\u00f9 tempo per decidere se lanciare un contrattacco.<\/p>\n<p>Tuttavia i responsabili delle decisioni nucleari sovietiche e statunitensi hanno subito identificato i limiti dell&#8217;automazione per la deterrenza nucleare: la tecnologia di rilevamento automatizzato durante la guerra fredda soffriva di numerosi problemi, di una rozza intelligenza percettiva, con errori e falsi allarmi. A causa di queste limitazioni, rimasero riluttanti a trasferire valutazioni di ordine superiore e capacit\u00e0 decisionali a sistemi automatizzati, e gli esseri umani rimasero sempre &#8220;nel circuito&#8221; del comando e controllo nucleare al fine di verificare e analizzare le informazioni fornite dai sistemi.<\/p>\n<p>L&#8217;unica significativa applicazione di AI alla strategia nucleare si ebbe nel 1985, quando l&#8217;Unione Sovietica, ritendo che gli Stati Uniti mirassero a una capacit\u00e0 di attacco nucleare disarmante, cre\u00f2 il sistema di rappresaglia semiautomatico <em>Perimetr<\/em>, noto in occidente come <em>Dead Hand<\/em> (mano morta), per garantire in ogni condizione una risposta sovietica a un attacco nucleare americano.<\/p>\n<p>Per lanciare la ritorsione nucleare con i missili balistici (ICBM) sopravvissuti, il sistema avrebbe dovuto utilizzare una formula proposizionale &#8220;se-allora&#8221;: se il sistema fosse stato attivato e se un&#8217;arma nucleare avesse colpito il suolo sovietico e se non ci fosse alcun collegamento per comunicare con la sala di crisi dello stato maggiore, allora il sistema avrebbe avviato il processo di lancio delle forze di ritorsione. Se il collegamento fosse rimasto operativo, il sistema avrebbe dovuto presumere che i responsabili mantenessero il pieno controllo decisionale e non farebbe nulla. Se il collegamento risultasse invece impossibile, il sistema avrebbe dedotto che questi responsabili non fossero pi\u00f9 vivi e avrebbe trasferito l&#8217;autorit\u00e0 decisionale a chiunque fosse rimasto a gestire il sistema, che era ospitato in un bunker protetto in profondit\u00e0. Nel sistema, il ruolo dell&#8217;AI era essenziale per poter desumere in modo autonomo che fosse avvenuto un attacco nucleare americano.<\/p>\n<p>Il <em>Perimetr<\/em> ricorda la <em>doomsday machine<\/em> del film Dr. Stranamore, e, come nel film, gli USA non erano stati informati della sua esistenza, che, qualora nota agli avversari, avrebbe potuto costituire un potente sistema di dissuasione nucleare. Alcune fonti sostengono che il <em>Perimetr <\/em>sia attualmente in fase di potenziamento.<\/p>\n<p>Da parte americana, per evitare l&#8217;impossibilit\u00e0 di comunicare con le basi missilistiche a causa della distruzione dei normali mezzi di comunicazione, venne creato un sistema di razzi segnaletici in grado di disseminare ai missili nucleari ordini di lancio pre-registrati. Verso la fine degli anni &#8217;80 gli USA lanciarono il progetto <em>Survivable Adaptivre Planning Experimen<\/em>t (SAPE) impiegante tecnologie AI per individuare le basi mobili russe di missili intercontinentali e tradurre i dati raccolti in piani di attacco per i bombardieri B-2.<\/p>\n<p>&nbsp;<\/p>\n<p><strong>Prospettive attuali<\/strong><\/p>\n<p>Le forze armate di tutti i maggiori paesi sono particolarmente impegnate allo sviluppo di capacit\u00e0 di ML e di automatismi a molteplici livelli, ma non si hanno informazioni pubbliche adeguate sull&#8217;effettiva introduzione di ML nell&#8217;attuale fase di ammodernamento degli armamenti. Poich\u00e9 si tratta di una tecnologia abilitante cos\u00ec ampiamente pervasiva, l&#8217;impatto dell&#8217;IA sulla stabilit\u00e0 strategica risulter\u00e0 sia diffuso che ampiamente variabile a seconda delle applicazioni.<\/p>\n<p>Per quanto riguarda i sistemi strategici, nessuna potenza nucleare appare comunque incline ad affidare a computer la decisione dell&#8217;impiego di armi nucleari, sia perch\u00e9 esse si riservavano gelosamente questa prerogativa e perch\u00e9 automatizzare attacchi o ritorsioni non \u00e8 una risposta logica ai delicatissimi problemi strategici coinvolti. Inoltre la potenza dei sistemi di ML rester\u00e0 ancora a lungo lontana dal livello di capacit\u00e0 necessario per gestire la complessit\u00e0 di una guerra nucleare, anche perch\u00e9 c&#8217;\u00e8 una totale mancanza di dati su cui istruire il sistema, dato che le armi nucleari non sono mai state utilizzate in conflitto dopo Hiroshima e Nagasaki; d&#8217;altra parte l&#8217;impiego di simulazioni, <em>wargames<\/em> ed esercitazioni creerebbe una base fortemente distorta, limitata e pregiudizievole.<\/p>\n<p>Tuttavia i recenti progressi dei calcolatori e della cibernetica permettono drammatici incrementi nella visione automatica e in altre applicazioni del trattamento dei segnali per aumentare significativamente l&#8217;autonomia e l&#8217;integrazione dei sensori; questi elementi sono di fondamentale importanza strategica perch\u00e9 potrebbero migliorare notevolmente le capacit\u00e0 di ISR, riconoscimento automatico del bersaglio e di guida terminale delle armi.<\/p>\n<p>Tutto ci\u00f2 potrebbe erodere gravemente i mezzi a disposizione delle potenze nucleari per assicurare la sopravvivenza delle loro forze di ritorsione. L&#8217;aumento di accuratezza dei missili \u00e8 andato minando la sicurezza dei silo degli ICBM e, conseguentemente, ha portato alla dispersione di parte delle forze nucleari: installate su mezzi mobili terrestri o su sottomarini, la loro posizione a un dato istante non \u00e8 facilmente identificabile e quindi non possono venire prese di mira ed eliminate con successo.<\/p>\n<p>Tuttavia, grazie all&#8217;AI, anche i missili mobili terrestri potrebbero perdere la loro occultabilit\u00e0. Recentemente infatti si sta considerando un possibile scenario contro i sistemi mobili terrestri che si basa sulla fusione dell&#8217;AI con le tecniche di analisi di massicce quantit\u00e0 di dati nel contesto di un sistema di sorveglianza continua mediante costellazioni satellitari. Tale struttura mira appunto a monitorare in tempo reale la posizione delle piattaforme missilistiche mobili in qualunque punto del loro paese una volta lasciate le loro basi. A consentire una copertura quasi continua di vaste aree terrestri dovrebbe provvedere una costellazione di un gran numero (&#8220;sciame&#8221;) di piccoli satelliti specializzati, opportunamente distribuiti e dotati dei necessari sensori per fornire una visione persistente in tutte le condizioni. Di fatto, la tecnica di sciami di centinaia o migliaia di piccoli satelliti \u00e8 ormai matura per impieghi civili.<\/p>\n<p>L&#8217;impiego di AI si rende necessario sia per il coordinamento e ottimizzazione degli sciami di satelliti che per l&#8217;analisi e l&#8217;interpretazione delle enormi quantit\u00e0 di dati che sarebbero restituite quasi in tempo reale dal monitoraggio continuo dell&#8217;intera rete stradale del paese avversario per individuare e seguire i veicoli dei missili mobili.<\/p>\n<p>Naturalmente sono possibili varie forme di difesa dal sistema di sorveglianza, sia passive (mimetizzazione, moltiplicazione di civette sulle strade, utilizzo di tunnel, &#8230;) che attive (attacchi cibernetici, disturbo dell&#8217;osservazione satellitare e delle comunicazioni), e difficilmente si potrebbe considerare l&#8217;informazione raccolta sicura ed esaustiva.<\/p>\n<p>Ma a causa della gravit\u00e0 della potenziale minaccia alle forze di reazione del paese controllato che un tale sistema potrebbe rappresentare, anche se oggettivamente imperfetto e vulnerabile, esso sarebbe destabilizzante in situazioni di crisi: da una parte il paese osservato potrebbe ritenere necessario ricorrere a una dottrina di lancio su allarme per le forze mobili o addirittura a impiegarle immediatamente per evitarne la distruzione, dall&#8217;altra il paese osservante potrebbe ritenersi in grado di lanciare un attacco preventivo disarmante.<\/p>\n<p>Il sistema favorisce anche una corsa agli armamenti: il paese osservato pu\u00f2 cercare di ristabilire lo stato di deterrenza creando una ridondanza di armi, moltiplicando le forze missilistiche mobili o sviluppando nuovi sistemi nucleari non intercettabili, come ad esempio veicoli ipersonici o sottomarini autonomi, come il <em>Poseidon<\/em> (<em>Status<\/em>-6) russo. Questi sviluppi verrebbero subito contrastati da altri sistemi offensivi da parte del paese osservante, in una spirale di aumenti quantitativi e qualitativi delle forze nucleari.<\/p>\n<p>Altri scenari di apprendimento automatico sono stati considerati per accrescere l&#8217;efficacia di sistemi nucleari (o creare nuove possibilit\u00e0) in vari contesti strategici o tattici; spesso queste applicazioni risultano destabilizzanti, specialmente qualora rafforzino asimmetrie esistenti fra stati con armi nucleari.<\/p>\n<p>Al di l\u00e0 dello studio delle applicazioni in progetti ambiziosi, occorre che i responsabili (e la comunit\u00e0 degli analisti indipendenti) valutino con attenzione i vantaggi e i rischi dell&#8217;incorporazione di ML nei processi di modernizzazione a breve termine nei vari settori militari nucleari e nell&#8217;infrastruttura logistica sottostante. Tali processi potrebbero plasmare la prossima generazione di armi e di strategie nucleari in una nuova rivoluzione negli affari militari. Tutti gli attori devono aver ben chiaro che l&#8217;incorporazione di intelligenza artificiale in sistemi nucleari pu\u00f2 introdurne nuove vulnerabilit\u00e0, tenuto in particolare conto che non esiste al momento un metodo sicuro per testare e verificare la sicurezza e affidabilit\u00e0 dell&#8217;apprendimento automatico.<\/p>\n<p>Nel secolo scorso Russia e USA affrontarono importanti sviluppi tecnologici per gli armamenti nucleari con una seria politica di controllo degli armamenti. \u00c8 difficile, se non impossibile, immaginare un sistema di monitoraggio e di ispezioni efficace per controllare mediate accordi internazionali i potenziali effetti destabilizzanti delle tecnologie di AI, per varie ragioni: la loro natura intrinseca di sistemi informatici complessi, per l&#8217;enorme diffusione in sistemi civili e militari, l&#8217;altissimo tasso di progresso, la segretezza mantenuta su specifiche applicazioni e il fatto che la forza che guida lo sviluppo del settore sono gli interessi del settore commerciale.<\/p>\n<p>Tuttavia, sarebbe necessaria una maggiore trasparenza per ridurre malintesi e incomprensioni fra gli stati con armi nucleari su questioni relative all&#8217;impiego di tecniche di AI, sviluppando varie forme di misure miranti all&#8217;aumento di fiducia reciproca. Appare di interesse comune delle potenze nucleari cooperare per risolvere alcuni dei problemi \u2013quali la sicurezza e la protezione dell&#8217;AI\u2013 che rendono altamente problematico l&#8217;uso di tecniche di AI nell&#8217;ambito nucleare.<\/p>\n<p>Purtroppo sembra che ogni forma di progresso scientifico, in qualsiasi campo, finisca per fornire nuove potenzialit\u00e0 alle armi pi\u00f9 pericolose, in primis quelle nucleari, e a indebolire il sistema di sicurezza globale e che questo possa avvenire in un modo ambiguo e con modalit\u00e0 che rendono difficile, se non impossibile, un&#8217;efficace forma di controllo o limitazione.<\/p>\n<p>&nbsp;<\/p>\n<p><strong>Alcune fonti<\/strong><\/p>\n<p>&#8211; Vincent Boulanin (ed) (2019) <em>The impact of artificial intelligence on strategic stability and nuclear risk, Volume I Euro-Atlantic Perspectives<\/em>, SIPRI, Stockholm, May 2019.<\/p>\n<p>&#8211; Vincent Boulanin, Lora Saalman, Petr Topychkanov, Fei Su, and Moa Peld\u00e1n Carlsson (2020) <em>Artificial Intelligence, Strategic Stability and Nuclear Risk<\/em>, SIPRI, Stockholm, June 2020.<\/p>\n<p>&#8211; Christopher F. Chyba (2020) &#8220;New Technologies &amp; Strategic Stability&#8221;, <em>Daedalus <\/em>149 (2): 150-170.<\/p>\n<p>&#8211; Edward Geist and Andrew J. Lohn (2018) <em>How might Artificial Intelligence affect the risk of Nuclear War?<\/em>, The Center for Global Risk and Security, RAND Corporation, Santa Monica, CA.<\/p>\n<p>&#8211; Ronan Hamon, Henrik Junklewitz, and Ignacio Sanchez (2020) <em>Robustness and Explainability of Artificial Intelligence \u2013 From Technical to Policy Solutions<\/em>, EUR 30040, Publications Office of the European Union, Luxembourg.<br \/>\n&#8211; Rebecca Hersman, Reja Younis, Bryce Farabaugh, Bethany Goldblum, and Andrew Reddie (2020) <em>Under the Nuclear Shadow: Situational Awareness Technology and Crisis Decisionmaking<\/em>, CSIS, March 2020, Center for Strategic and International Studies (CSIS), Washington, DC.<\/p>\n<p>&#8211; Keir A. Lieber and Daryl G. Press (2017) \u201cThe New Era of Counterforce: Technological Change and the Future of Nuclear Deterrence,\u201d <em>International Security<\/em> 41(4): 9-49.<\/p>\n<p>&#8211; National Security Commission on Artificial Intelligence (2020) <em>Interim Report and<\/em><\/p>\n<p><em>Third Quarter Recommendations October 2020<\/em>, NSCAI, Washington, DC.<\/p>\n<p>&#8211; Lora Saalman (ed) (2019) <em>The impact of artificial intelligence on strategic stability and nuclear risk, Volume II East Asian Perspectives<\/em>, SIPRI Report October 2019, SIPRI, Stockholm.<\/p>\n<p>&#8211; Kelley M. Sayler (2020) <em>Artificial Intelligence and National Security<\/em>, Report R45178 Updated 10\/11\/2020, Congressional Research Service, Washington, DC.<br \/>\n&#8211; Lindsey Sheppard (2020) <em>Left of Launch, Artificial Intelligence at the Nuclear Nexus<\/em>, CSIS 17\/12\/2020, Center for Strategic and International Studies (CSIS), Washington, DC.<\/p>\n<p>&nbsp;<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Costretti a convivere con una miriade di armi nucleari \u2013 molte delle quali pronte a venir lanciare nel giro di pochi minuti \u2013 dobbiamo augurarci che gli sviluppi militari attualmente in corso almeno non compromettano il presente delicato stato di&hellip;<\/p>\n","protected":false},"author":1595,"featured_media":1024521,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[162,1263,496],"tags":[87603,8871,24736],"class_list":["post-1301687","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-opinioni","category-pace-disarmo","category-scienza-tecnologia","tag-apparati-militari","tag-guerra-fredda","tag-intelligenza-artificiale"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.1.1 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Intelligenza artificiale e stabilit\u00e0 strategica<\/title>\n<meta name=\"description\" content=\"Costretti a convivere con una miriade di armi nucleari \u2013 molte delle quali pronte a venir lanciare nel giro di pochi minuti \u2013 dobbiamo augurarci che gli\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/www.pressenza.com\/it\/2021\/02\/intelligenza-artificiale-e-stabilita-strategica\/\" \/>\n<meta property=\"og:locale\" content=\"it_IT\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Intelligenza artificiale e stabilit\u00e0 strategica\" \/>\n<meta property=\"og:description\" content=\"Costretti a convivere con una miriade di armi nucleari \u2013 molte delle quali pronte a venir lanciare nel giro di pochi minuti \u2013 dobbiamo augurarci che gli\" \/>\n<meta property=\"og:url\" content=\"https:\/\/www.pressenza.com\/it\/2021\/02\/intelligenza-artificiale-e-stabilita-strategica\/\" \/>\n<meta property=\"og:site_name\" content=\"Pressenza\" \/>\n<meta property=\"article:publisher\" content=\"https:\/\/www.facebook.com\/PressenzaItalia\" \/>\n<meta property=\"article:published_time\" content=\"2021-02-20T17:29:22+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2021-02-20T17:33:19+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/www.pressenza.com\/wp-content\/uploads\/2020\/01\/artificial-intelligence-3382521_1280.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1280\" \/>\n\t<meta property=\"og:image:height\" content=\"853\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Alessandro Pascolini\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@PressenzaIPA\" \/>\n<meta name=\"twitter:site\" content=\"@PressenzaIPA\" \/>\n<meta name=\"twitter:label1\" content=\"Scritto da\" \/>\n\t<meta name=\"twitter:data1\" content=\"Alessandro Pascolini\" \/>\n\t<meta name=\"twitter:label2\" content=\"Tempo di lettura stimato\" \/>\n\t<meta name=\"twitter:data2\" content=\"15 minuti\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/www.pressenza.com\/it\/2021\/02\/intelligenza-artificiale-e-stabilita-strategica\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/www.pressenza.com\/it\/2021\/02\/intelligenza-artificiale-e-stabilita-strategica\/\"},\"author\":{\"name\":\"Alessandro Pascolini\",\"@id\":\"https:\/\/www.pressenza.com\/it\/#\/schema\/person\/e30c47fd14d4074f0416681a48313b02\"},\"headline\":\"Intelligenza artificiale e stabilit\u00e0 strategica\",\"datePublished\":\"2021-02-20T17:29:22+00:00\",\"dateModified\":\"2021-02-20T17:33:19+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/www.pressenza.com\/it\/2021\/02\/intelligenza-artificiale-e-stabilita-strategica\/\"},\"wordCount\":3150,\"publisher\":{\"@id\":\"https:\/\/www.pressenza.com\/it\/#organization\"},\"image\":{\"@id\":\"https:\/\/www.pressenza.com\/it\/2021\/02\/intelligenza-artificiale-e-stabilita-strategica\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/www.pressenza.com\/wp-content\/uploads\/2020\/01\/artificial-intelligence-3382521_1280.jpg\",\"keywords\":[\"apparati militari\",\"Guerra Fredda\",\"intelligenza artificiale\"],\"articleSection\":[\"Opinioni\",\"Pace e Disarmo\",\"Scienza e Tecnologia\"],\"inLanguage\":\"it-IT\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/www.pressenza.com\/it\/2021\/02\/intelligenza-artificiale-e-stabilita-strategica\/\",\"url\":\"https:\/\/www.pressenza.com\/it\/2021\/02\/intelligenza-artificiale-e-stabilita-strategica\/\",\"name\":\"Intelligenza artificiale e stabilit\u00e0 strategica\",\"isPartOf\":{\"@id\":\"https:\/\/www.pressenza.com\/it\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/www.pressenza.com\/it\/2021\/02\/intelligenza-artificiale-e-stabilita-strategica\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/www.pressenza.com\/it\/2021\/02\/intelligenza-artificiale-e-stabilita-strategica\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/www.pressenza.com\/wp-content\/uploads\/2020\/01\/artificial-intelligence-3382521_1280.jpg\",\"datePublished\":\"2021-02-20T17:29:22+00:00\",\"dateModified\":\"2021-02-20T17:33:19+00:00\",\"description\":\"Costretti a convivere con una miriade di armi nucleari \u2013 molte delle quali pronte a venir lanciare nel giro di pochi minuti \u2013 dobbiamo augurarci che gli\",\"breadcrumb\":{\"@id\":\"https:\/\/www.pressenza.com\/it\/2021\/02\/intelligenza-artificiale-e-stabilita-strategica\/#breadcrumb\"},\"inLanguage\":\"it-IT\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/www.pressenza.com\/it\/2021\/02\/intelligenza-artificiale-e-stabilita-strategica\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\/\/www.pressenza.com\/it\/2021\/02\/intelligenza-artificiale-e-stabilita-strategica\/#primaryimage\",\"url\":\"https:\/\/www.pressenza.com\/wp-content\/uploads\/2020\/01\/artificial-intelligence-3382521_1280.jpg\",\"contentUrl\":\"https:\/\/www.pressenza.com\/wp-content\/uploads\/2020\/01\/artificial-intelligence-3382521_1280.jpg\",\"width\":1280,\"height\":853,\"caption\":\"Welchen Weg sollen wir mit KI einschlagen?\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/www.pressenza.com\/it\/2021\/02\/intelligenza-artificiale-e-stabilita-strategica\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Accueil\",\"item\":\"https:\/\/www.pressenza.com\/it\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Intelligenza artificiale e stabilit\u00e0 strategica\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/www.pressenza.com\/it\/#website\",\"url\":\"https:\/\/www.pressenza.com\/it\/\",\"name\":\"Pressenza\",\"description\":\"Agenzia di Stampa Internazionale\",\"publisher\":{\"@id\":\"https:\/\/www.pressenza.com\/it\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/www.pressenza.com\/it\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"it-IT\"},{\"@type\":\"Organization\",\"@id\":\"https:\/\/www.pressenza.com\/it\/#organization\",\"name\":\"Pressenza\",\"url\":\"https:\/\/www.pressenza.com\/it\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\/\/www.pressenza.com\/it\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/www.pressenza.com\/wp-content\/uploads\/2022\/10\/pressenza_logo_200x200.jpg\",\"contentUrl\":\"https:\/\/www.pressenza.com\/wp-content\/uploads\/2022\/10\/pressenza_logo_200x200.jpg\",\"width\":200,\"height\":200,\"caption\":\"Pressenza\"},\"image\":{\"@id\":\"https:\/\/www.pressenza.com\/it\/#\/schema\/logo\/image\/\"},\"sameAs\":[\"https:\/\/www.facebook.com\/PressenzaItalia\",\"https:\/\/x.com\/PressenzaIPA\"]},{\"@type\":\"Person\",\"@id\":\"https:\/\/www.pressenza.com\/it\/#\/schema\/person\/e30c47fd14d4074f0416681a48313b02\",\"name\":\"Alessandro Pascolini\",\"description\":\"Alessandro Pascolini \u00e8 uno studioso senior dell\u2019Universit\u00e0 di Padova, gi\u00e0 docente di fisica teorica e di scienze per la pace, ed \u00e8 vice-direttore del Master in comunicazione delle scienze. Si occupa di fisica nucleare, controllo degli armamenti e divulgazione scientifica. Dal 1988 al 2002 \u00e8 stato responsabile delle attivit\u00e0 di promozione della cultura scientifica dell\u2019Istituto Nazionale di Fisica Nucleare, producendo una sessantina di mostre in Italia e all\u2019estero e predisponendo testi e materiali audiovisivi, cinematografici e multimediali. La Societ\u00e0 Europea di Fisica gli ha conferito il premio 2004 per la divulgazione scientifica. \u00c8 vicepresidente dell\u2019ISODARCO e partecipa alle Pugwash Conferences on Science and World Affairs.\",\"url\":\"https:\/\/www.pressenza.com\/it\/author\/alessandro-pascolini\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Intelligenza artificiale e stabilit\u00e0 strategica","description":"Costretti a convivere con una miriade di armi nucleari \u2013 molte delle quali pronte a venir lanciare nel giro di pochi minuti \u2013 dobbiamo augurarci che gli","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/www.pressenza.com\/it\/2021\/02\/intelligenza-artificiale-e-stabilita-strategica\/","og_locale":"it_IT","og_type":"article","og_title":"Intelligenza artificiale e stabilit\u00e0 strategica","og_description":"Costretti a convivere con una miriade di armi nucleari \u2013 molte delle quali pronte a venir lanciare nel giro di pochi minuti \u2013 dobbiamo augurarci che gli","og_url":"https:\/\/www.pressenza.com\/it\/2021\/02\/intelligenza-artificiale-e-stabilita-strategica\/","og_site_name":"Pressenza","article_publisher":"https:\/\/www.facebook.com\/PressenzaItalia","article_published_time":"2021-02-20T17:29:22+00:00","article_modified_time":"2021-02-20T17:33:19+00:00","og_image":[{"width":1280,"height":853,"url":"https:\/\/www.pressenza.com\/wp-content\/uploads\/2020\/01\/artificial-intelligence-3382521_1280.jpg","type":"image\/jpeg"}],"author":"Alessandro Pascolini","twitter_card":"summary_large_image","twitter_creator":"@PressenzaIPA","twitter_site":"@PressenzaIPA","twitter_misc":{"Scritto da":"Alessandro Pascolini","Tempo di lettura stimato":"15 minuti"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/www.pressenza.com\/it\/2021\/02\/intelligenza-artificiale-e-stabilita-strategica\/#article","isPartOf":{"@id":"https:\/\/www.pressenza.com\/it\/2021\/02\/intelligenza-artificiale-e-stabilita-strategica\/"},"author":{"name":"Alessandro Pascolini","@id":"https:\/\/www.pressenza.com\/it\/#\/schema\/person\/e30c47fd14d4074f0416681a48313b02"},"headline":"Intelligenza artificiale e stabilit\u00e0 strategica","datePublished":"2021-02-20T17:29:22+00:00","dateModified":"2021-02-20T17:33:19+00:00","mainEntityOfPage":{"@id":"https:\/\/www.pressenza.com\/it\/2021\/02\/intelligenza-artificiale-e-stabilita-strategica\/"},"wordCount":3150,"publisher":{"@id":"https:\/\/www.pressenza.com\/it\/#organization"},"image":{"@id":"https:\/\/www.pressenza.com\/it\/2021\/02\/intelligenza-artificiale-e-stabilita-strategica\/#primaryimage"},"thumbnailUrl":"https:\/\/www.pressenza.com\/wp-content\/uploads\/2020\/01\/artificial-intelligence-3382521_1280.jpg","keywords":["apparati militari","Guerra Fredda","intelligenza artificiale"],"articleSection":["Opinioni","Pace e Disarmo","Scienza e Tecnologia"],"inLanguage":"it-IT"},{"@type":"WebPage","@id":"https:\/\/www.pressenza.com\/it\/2021\/02\/intelligenza-artificiale-e-stabilita-strategica\/","url":"https:\/\/www.pressenza.com\/it\/2021\/02\/intelligenza-artificiale-e-stabilita-strategica\/","name":"Intelligenza artificiale e stabilit\u00e0 strategica","isPartOf":{"@id":"https:\/\/www.pressenza.com\/it\/#website"},"primaryImageOfPage":{"@id":"https:\/\/www.pressenza.com\/it\/2021\/02\/intelligenza-artificiale-e-stabilita-strategica\/#primaryimage"},"image":{"@id":"https:\/\/www.pressenza.com\/it\/2021\/02\/intelligenza-artificiale-e-stabilita-strategica\/#primaryimage"},"thumbnailUrl":"https:\/\/www.pressenza.com\/wp-content\/uploads\/2020\/01\/artificial-intelligence-3382521_1280.jpg","datePublished":"2021-02-20T17:29:22+00:00","dateModified":"2021-02-20T17:33:19+00:00","description":"Costretti a convivere con una miriade di armi nucleari \u2013 molte delle quali pronte a venir lanciare nel giro di pochi minuti \u2013 dobbiamo augurarci che gli","breadcrumb":{"@id":"https:\/\/www.pressenza.com\/it\/2021\/02\/intelligenza-artificiale-e-stabilita-strategica\/#breadcrumb"},"inLanguage":"it-IT","potentialAction":[{"@type":"ReadAction","target":["https:\/\/www.pressenza.com\/it\/2021\/02\/intelligenza-artificiale-e-stabilita-strategica\/"]}]},{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/www.pressenza.com\/it\/2021\/02\/intelligenza-artificiale-e-stabilita-strategica\/#primaryimage","url":"https:\/\/www.pressenza.com\/wp-content\/uploads\/2020\/01\/artificial-intelligence-3382521_1280.jpg","contentUrl":"https:\/\/www.pressenza.com\/wp-content\/uploads\/2020\/01\/artificial-intelligence-3382521_1280.jpg","width":1280,"height":853,"caption":"Welchen Weg sollen wir mit KI einschlagen?"},{"@type":"BreadcrumbList","@id":"https:\/\/www.pressenza.com\/it\/2021\/02\/intelligenza-artificiale-e-stabilita-strategica\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Accueil","item":"https:\/\/www.pressenza.com\/it\/"},{"@type":"ListItem","position":2,"name":"Intelligenza artificiale e stabilit\u00e0 strategica"}]},{"@type":"WebSite","@id":"https:\/\/www.pressenza.com\/it\/#website","url":"https:\/\/www.pressenza.com\/it\/","name":"Pressenza","description":"Agenzia di Stampa Internazionale","publisher":{"@id":"https:\/\/www.pressenza.com\/it\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/www.pressenza.com\/it\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"it-IT"},{"@type":"Organization","@id":"https:\/\/www.pressenza.com\/it\/#organization","name":"Pressenza","url":"https:\/\/www.pressenza.com\/it\/","logo":{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/www.pressenza.com\/it\/#\/schema\/logo\/image\/","url":"https:\/\/www.pressenza.com\/wp-content\/uploads\/2022\/10\/pressenza_logo_200x200.jpg","contentUrl":"https:\/\/www.pressenza.com\/wp-content\/uploads\/2022\/10\/pressenza_logo_200x200.jpg","width":200,"height":200,"caption":"Pressenza"},"image":{"@id":"https:\/\/www.pressenza.com\/it\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/www.facebook.com\/PressenzaItalia","https:\/\/x.com\/PressenzaIPA"]},{"@type":"Person","@id":"https:\/\/www.pressenza.com\/it\/#\/schema\/person\/e30c47fd14d4074f0416681a48313b02","name":"Alessandro Pascolini","description":"Alessandro Pascolini \u00e8 uno studioso senior dell\u2019Universit\u00e0 di Padova, gi\u00e0 docente di fisica teorica e di scienze per la pace, ed \u00e8 vice-direttore del Master in comunicazione delle scienze. Si occupa di fisica nucleare, controllo degli armamenti e divulgazione scientifica. Dal 1988 al 2002 \u00e8 stato responsabile delle attivit\u00e0 di promozione della cultura scientifica dell\u2019Istituto Nazionale di Fisica Nucleare, producendo una sessantina di mostre in Italia e all\u2019estero e predisponendo testi e materiali audiovisivi, cinematografici e multimediali. La Societ\u00e0 Europea di Fisica gli ha conferito il premio 2004 per la divulgazione scientifica. \u00c8 vicepresidente dell\u2019ISODARCO e partecipa alle Pugwash Conferences on Science and World Affairs.","url":"https:\/\/www.pressenza.com\/it\/author\/alessandro-pascolini\/"}]}},"place":"","original_article_url":"","_links":{"self":[{"href":"https:\/\/www.pressenza.com\/it\/wp-json\/wp\/v2\/posts\/1301687","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.pressenza.com\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.pressenza.com\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.pressenza.com\/it\/wp-json\/wp\/v2\/users\/1595"}],"replies":[{"embeddable":true,"href":"https:\/\/www.pressenza.com\/it\/wp-json\/wp\/v2\/comments?post=1301687"}],"version-history":[{"count":0,"href":"https:\/\/www.pressenza.com\/it\/wp-json\/wp\/v2\/posts\/1301687\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.pressenza.com\/it\/wp-json\/wp\/v2\/media\/1024521"}],"wp:attachment":[{"href":"https:\/\/www.pressenza.com\/it\/wp-json\/wp\/v2\/media?parent=1301687"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.pressenza.com\/it\/wp-json\/wp\/v2\/categories?post=1301687"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.pressenza.com\/it\/wp-json\/wp\/v2\/tags?post=1301687"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}