Come gli sciami di agenti AI stanno riscrivendo la realtà

Qualche anno fa, una troll farm funzionava così: un edificio pieno di persone, turni, scrivanie, lavoratori pagati per scrivere post, creare profili falsi, commentare e accendere polemiche nelle discussioni online. Era costoso, lento e, alla fine, l’impatto reale era marginale. Oggi quegli edifici esistono ancora, ma i lavoratori non scrivono più. Configurano agenti. Li istruiscono, li supervisionano, li moltiplicano. Centinaia di migliaia di agenti autonomi che fanno in un’ora quello che prima richiedeva settimane di lavoro umano. Le troll farm sono diventate AI farm, e producono contenuto sintetico su scala industriale.

Non è una metafora. È la descrizione letterale di un sistema documentato. Un rapporto del febbraio 2026 del Centre for International Governance Innovation (CIGI), intitolato “From Trolls to Generative AI: Russia’s Disinformation Evolution”, racconta come reti come CopyCop — un’operazione di disinformazione collegata al GRU, l’intelligence militare russa — utilizzino versioni modificate di modelli open-source come Llama 3, installate su server propri, per trasformare articoli di stampa in propaganda politica e distribuirla attraverso centinaia di siti web falsi senza lasciare tracce. Perché i modelli girano in locale, su hardware russo, dentro confini russi, fuori da qualsiasi giurisdizione occidentale. Non c’è watermark. Non c’è log. Non c’è nessuno a cui chiedere conto.

Sciami, non bot

Quello a cui ci siamo abituati, negli anni, era l’automazione nel senso classico: un sistema che inviava centomila email identiche, cambiando al massimo il nome del destinatario, oppure pubblicava altrettanti post con variazioni minime. Automatizzava la distribuzione, ma al fondo era spam riconoscibile. Il nostro modello mentale è ancora quello: se è automatizzato, è generico; se è generico, lo riconosci. Ma questo modello è costruito su anni di esperienza in un mondo senza agenti AI. Ed è diventato obsoleto.

Il paper pubblicato su Science nel gennaio 2026 con il titolo “How malicious AI swarms can threaten democracy” — firmato da un gruppo internazionale di ventidue ricercatori provenienti da ventuno istituzioni accademiche, tra cui Nick Bostrom, la Nobel per la Pace Maria Ressa e Filippo Menczer — descrive qualcosa di qualitativamente diverso: sciami coordinati di agenti AI con identità persistenti, memoria, capacità di adattarsi in tempo reale alle reazioni delle persone. Agenti pienamente autonomi, ciascuno dei quali produce contenuto originale, ciascuno diverso dall’altro, ciascuno calibrato sul contesto specifico della persona che riceve il messaggio. Non c’è più un messaggio che si diffonde: c’è un sistema che decide, istante per istante, quale messaggio produrre per quale persona.

Questi sciami sfruttano due meccanismi psicologici che sono bug strutturali del modo in cui gli esseri umani formano le opinioni. Il primo si chiama bandwagon effect: tendiamo ad allinearci alle posizioni che percepiamo come maggioritarie. Il secondo è l’illusory truth: la ripetizione di un’informazione, indipendentemente dalla sua veridicità, ne aumenta la percezione di credibilità. Combinati, producono un effetto preciso: se vediamo la stessa posizione espressa da fonti diverse, in contesti diversi, con parole diverse, su piattaforme diverse, la registriamo come diffusa. E se la percepiamo come diffusa, la consideriamo più credibile. Gli sciami di agenti sfruttano entrambi i meccanismi contemporaneamente, su scala industriale, ventiquattro ore su ventiquattro.

Il targeting chirurgico

C’è un’altra eredità del passato che va smontata: l’idea che le operazioni di manipolazione si rivolgano a masse indifferenziate. La vecchia profilazione demografica è superata. Questi agenti aggregano dati da fonti eterogenee in tempo reale: profili social, registri pubblici, database di dati rubati acquistabili per pochi dollari su qualsiasi marketplace del dark web. Miliardi di record personali sono già disponibili, dispersi in centinaia di violazioni accumulate negli anni. Un agente con accesso a un modello linguistico e a un paio di database di dati trafugati può produrre migliaia di pezzi di contenuto unici al giorno, ciascuno calibrato su una persona diversa. Moltiplicato per centomila agenti che lavorano in parallelo, il costo computazionale è nell’ordine di qualche centesimo di dollaro per messaggio perfettamente personalizzato.

Questo sistema costruisce quello che si può chiamare consenso sintetico: l’illusione che un’opinione sia ampiamente condivisa, che una posizione sia sostenuta dalla maggioranza, quando in realtà è un singolo operatore che parla attraverso migliaia di maschere. Funziona perché la percezione del consenso è per noi, come specie, uno degli indicatori più potenti di veridicità. Non abbiamo sviluppato anticorpi contro un consenso fabbricato artificialmente a questa scala.

Il paradosso della regolazione

La risposta regolamentare esiste, almeno in Europa. Il Regolamento sull’Intelligenza Artificiale, la bozza del Codice di Condotta per i modelli di uso generale, i meccanismi di enforcement del Digital Services Act: sono strumenti avanzati rispetto a qualsiasi altro blocco geopolitico. Gli Stati Uniti non hanno una regolamentazione federale. Ma anche il framework europeo più ambizioso ha un limite strutturale che non è tecnico, è geopolitico: gli attacchi arrivano da paesi che non rispondono a nessuna di queste regole. È possibile regolamentare le proprie piattaforme, i propri sviluppatori, le proprie aziende. Non è possibile regolamentare un edificio a San Pietroburgo, Shenzhen o Nuova Delhi dove qualcuno sta istruendo sciami di agenti su modelli open-source installati su server locali.

Il paradosso è grottesco nella sua precisione: il contenuto prodotto da chi rispetta le regole è marcato, tracciato, eventualmente rimosso. Il contenuto prodotto da chi vuole causare danno è libero, non marcato e non soggetto ad alcuna giurisdizione. La regolamentazione filtra i soggetti regolati, lasciando intatto il campo agli attori che, per definizione, non intendono essere regolati.

C’è poi la questione degli incentivi delle piattaforme. Documenti interni di Meta resi pubblici da Reuters nel novembre 2025 stimavano che circa il 10% dei ricavi globali di Meta nel 2024 — circa 16 miliardi di dollari — provenisse da pubblicità per truffe e prodotti vietati. Il sacrificio massimo di ricavi che Meta era disposta ad accettare per agire contro gli inserzionisti sospetti era lo 0,15% del fatturato totale: 135 milioni di dollari su 90 miliardi. Quando il modello di business di una piattaforma dipende dal volume pubblicitario, rimuovere gli annunci fraudolenti ha un costo che nessuno vuole pagare.

L’unico anticorpo che scala

Il rilevamento automatico dei pattern ha gli stessi limiti della regolamentazione: funziona per un tempo limitato, poi gli sciami — progettati esattamente per farlo — si adattano. Il watermarking è efficace solo per chi è disposto ad usarlo. Il fact-checking arriva sempre dopo, è sempre più lento, non raggiunge mai la stessa scala del contenuto che intende smentire. Se centinaia di migliaia di agenti coordinati diffondono un video di un politico che dice qualcosa che non ha mai detto, quel politico può smentire quanto vuole: il video è lì, milioni di persone lo hanno visto, e la smentita arriva in un mondo in cui nessuno sa più distinguere il vero dal falso.

Resta un anticorpo che ha una caratteristica che nessun sistema tecnico possiede: scala alla stessa velocità della minaccia. È la consapevolezza. Un sistema che fabbrica consenso sintetico funziona solo se le persone che lo ricevono non sanno che il consenso sintetico esiste. Conoscere il meccanismo lo indebolisce. Non lo neutralizza completamente, ma riduce drasticamente l’efficacia. Un po’ come i deepfake: adesso li conosciamo, e spesso li riconosciamo. Sapere come funziona rende più difficile cascarci.

Questo non significa che la consapevolezza sia sufficiente. Significa che è la condizione necessaria di qualsiasi altra risposta. E che trattare l’alfabetizzazione mediatica come un progetto scolastico secondario, invece che come infrastruttura democratica al pari di ospedali e ponti, è una scelta politica con conseguenze precise. Nel frattempo, gli sciami non aspettano.

🔗 FONTI