Il 13 giugno 2025, nelle prime ore del mattino, Israele lancia la sua prima grande campagna di bombardamenti contro l’Iran. Colpisce siti militari, impianti nucleari, infrastrutture. In operazioni mirate elimina alti comandanti dell’apparato militare e della sicurezza iraniana, oltre a scienziati legati al programma nucleare. L’Iran risponde con missili balistici e droni. È l’inizio di quello che verrà chiamato la Guerra dei Dodici Giorni. E nel momento esatto in cui le prime bombe cadono, qualcosa di diverso accade online: una rete coordinata di account su X inizia a pubblicare in modo sincronizzato immagini e video di presunte rivolte in Iran, veicoli militari iraniani che esplodono, folla in piazza, instabilità. Contenuti preparati in anticipo, pubblicati mentre i missili erano ancora in volo.
Non si tratta di propaganda spontanea. È un’operazione pianificata, documentata nei dettagli dal Citizen Lab dell’Università di Toronto nel rapporto “We Say You Want a Revolution: PRISONBREAK” (Report No. 189, ottobre 2025), elaborato insieme al ricercatore Darren Linvill della Clemson University. Una rete di oltre cinquanta profili inautentici su X, creata nel 2023 ma attivata massicciamente dal gennaio 2025, coordinata con precisione militare con le operazioni delle IDF. Il Citizen Lab, dopo aver sistematicamente escluso spiegazioni alternative, ha concluso che l’ipotesi più coerente con le evidenze disponibili è che un’agenzia non identificata del governo israeliano — o un subappaltatore che lavora sotto la sua stretta supervisione — stia conducendo direttamente l’operazione.
Come funziona PRISONBREAK
L’obiettivo dichiarato della campagna, ricostruito dall’analisi dei contenuti e delle traiettorie narrative della rete, è fomentare una rivolta contro il regime iraniano all’interno della popolazione iraniana. Non si tratta di influenzare l’opinione pubblica occidentale su Israele, né di contrastare narrativi ostili nei media internazionali. È qualcosa di più diretto: produrre una percezione di instabilità interna in Iran, sincronizzata con i momenti in cui le IDF colpiscono, per amplificare l’effetto demoralizzante degli attacchi e incoraggiare la popolazione a insorgere.
Il Citizen Lab ha documentato come la rete abbia utilizzato sistematicamente immagini e video generati dall’AI, inclusi deepfake, mimando l’estetica di veri organi di informazione — tra cui BBC Persian. Uno dei contenuti più analizzati è un deepfake relativo al carcere di Evin — la prigione politica più famosa dell’Iran — pubblicato alle 11:52 ora di Teheran, pochi minuti dopo l’inizio del bombardamento israeliano sulla struttura il 23 giugno 2025. Quella preparazione anticipata è, per i ricercatori del Citizen Lab, uno degli elementi più rilevanti: nessun terzo soggetto, privo di conoscenza preventiva dei piani delle IDF, avrebbe potuto preparare quei contenuti e pubblicarli in quella finestra temporale così ristretta.
Nelle prime ore del conflitto, la rete ha esortato gli iraniani a prelevare denaro dagli ATM, sostenendo che il regime stesse confiscando i risparmi dei cittadini. Circolavano video AI-generated di lunghe code agli sportelli, con figure umane distorte — un indicatore tecnico di manipolazione digitale identificato dai ricercatori forensi. La rete ha anche rilanciato il movimento simbolico #8PMCry, incoraggiando i cittadini a urlare slogan antigovernativi dai balconi, amplificato con video manipolati che fingevano di mostrare una partecipazione di massa. Alcuni account hanno impersonato media legittimi, pubblicando screenshot fasulli su presunte fughe di alti funzionari iraniani.
I post della rete hanno raggiunto decine di migliaia di visualizzazioni in alcuni casi: uno solo — quello relativo al carcere di Evin — ha accumulato oltre 46.000 visualizzazioni e 3.500 like. Gli account erano attivi prevalentemente durante l’orario lavorativo israeliano e operavano principalmente da desktop anziché da dispositivi mobili: indicatori tecnici che i ricercatori hanno interpretato come coerenti con un’operazione professionalmente coordinata, non con dissenso organico iraniano.
STOIC e l’industria israeliana della disinformazione
PRISONBREAK non è un caso isolato. Intorno a operazioni di questo tipo si è sviluppato in Israele un ecosistema commerciale strutturato: società spesso fondate da ex ufficiali militari delle forze di intelligence che operano in una zona grigia, offrendo capacità tecnologiche di manipolazione senza esplicitarle, consentendo ai clienti statali di mantenere una misura di plausibile negabilità.
La società più documentata in questo ecosistema è STOIC, una società di marketing politico con sede a Tel Aviv. Nel giugno 2024, Meta e OpenAI hanno smantellato una rete di account gestita da STOIC: Meta ha rimosso 510 account Facebook e 32 account Instagram, emettendo una lettera di diffida. OpenAI ha confermato che STOIC usava i suoi modelli per generare articoli web e commenti pubblicati su Facebook, Instagram, X, YouTube e Telegram. Dopo aver pubblicato i commenti, altri account della stessa rete rispondevano con testi anch’essi generati dall’AI — creando l’illusione di un dibattito autentico. I profili fingevano di essere studenti ebrei, afroamericani o “cittadini preoccupati” nei paesi target. Le foto profilo erano spesso generate dall’AI, con alcuni account che usavano la stessa fotografia per persone nominalmente diverse.
Dietro STOIC c’è un mandante pubblico documentato: il Ministero degli Affari della Diaspora israeliano, che ha finanziato l’operazione con circa 2 milioni di dollari per condurre una campagna rivolta a 128 parlamentari americani, con focus specifico sui membri democratici e afroamericani della Camera dei Rappresentanti. I contenuti includevano attacchi all’UNRWA, narrazioni volte a creare una frattura tra palestinesi e afroamericani, e materiale islamofobico rivolto al Canada. Il ministro Amichai Chikli ha negato le accuse, definendo le indagini “diffamazione”.
Hasbara nell’era degli agenti
C’è un termine ebraico che in Israele è di uso comune nell’ambito della comunicazione pubblica: hasbara, che significa letteralmente “spiegare”. La Direzione Nazionale per la Diplomazia Pubblica israeliana porta questo nome e coordina ufficialmente gli sforzi di proiezione narrativa di Israele all’estero.
La distinzione tra promozione legittima di un punto di vista e operazione di disinformazione coordinata non è sempre netta nella percezione pubblica. Ma i criteri per distinguerle esistono: l’uso di profili inautentici, la fabbricazione di identità false, la sincronizzazione con operazioni militari, l’impiego di deepfake, la manipolazione artificiale dell’engagement sono indicatori documentati e specifici. Non si tratta di valutare le ragioni politiche di un conflitto. Si tratta di riconoscere un’infrastruttura tecnica di manipolazione dell’informazione, indipendentemente da chi la gestisce.
La guerra in cui tutti producono false realtà
Il quadro che emerge dall’analisi del conflitto Iran-Israele del 2025 è quello di un ambiente informativo in cui nessun attore è immune dalla tentazione di fabbricare realtà. Iran, Russia, reti filo-israeliane: ciascuno produce il proprio set di falsi, ciascuno con tecniche e obiettivi diversi.
Questo è forse il dato più preoccupante. Non la sofisticazione tecnica degli sciami AI — che è reale e crescente. Ma il fatto che il sistema funzioni anche quando è parzialmente smascherato: perché in un ambiente in cui tutti producono falsi, anche il vero diventa sospetto. Un politico che smentisce un deepfake lo fa in un mondo in cui tutti sanno che i deepfake esistono. La smentita non ristabilisce la realtà: si aggiunge al rumore.
Cosa resta in piedi
Le operazioni documentate — PRISONBREAK, STOIC, CopyCop — sono state smantellate o ridimensionate nel momento in cui sono state esposte. Questo conta. Significa che la ricerca indipendente, il monitoraggio delle piattaforme, l’investigazione giornalistica hanno ancora un effetto.
Il problema è la scala temporale: tra il momento in cui un’operazione viene attivata e il momento in cui viene smantellata, può passare abbastanza tempo da rendere il danno narrativo irreversibile.
Resta in piedi, come sempre, la reputazione delle fonti. Un sistema che genera milioni di contenuti falsi non risponde a nessuno. Un ricercatore universitario, un giornalista investigativo, un’organizzazione come il Citizen Lab rispondono alla propria reputazione, alla comunità scientifica, al pubblico.
E nel frattempo, gli sciami continuano a lavorare.
🔗 FONTI (cliccabili)
- 🔵 Citizen Lab
https://citizenlab.ca/2025/10/ai-enabled-io-aimed-at-overthrowing-iranian-regime/ - 🔵 CyberScoop
https://cyberscoop.com/citizen-lab-disinformation-campaign-israel-iran-evin-prison/ - 🔵 NPR
https://www.npr.org/2024/07/09/nx-s1-4994027/israel-us-online-influence-campaign-gaza - 🔵 Haaretz
https://www.haaretz.com/israel-news/security-aviation/2025-10-03/…











