L’Intelligenza artificiale – IA  è la nuova frontiera della pedofilia e pedopornografia: chi abusa si rivolge a chatbot, sistemi che interagiscono online con i minori, con l’obiettivo di avere un contatto più intimo. Non solo: è possibile “spogliare” i bambini (2.967 caduti in questa rete solo nella prima metà del 2025) e farli agire dentro situazioni di abuso grazie al deepfake, le immagini truffa. La denuncia è contenuta nel primo Dossier in assoluto su quest’emergenza, dal titolo “Conoscere per prevenire, dalla pedopornografia ai deepnude”, preparato dall’Associazione Meter ETS fondata e presieduta da don Fortunato Di Noto  (www.associazionemeter.org). Le foto deepfake (e i video) potenziano la produzione e aprono ad una drammatica svolta: la “normalizzazione” dell’abuso perché in fondo sono immagini virtuali, non ci sono vittime fisiche dunque non è un crimine. I deepfake sono video o immagini create utilizzando l’IA per sostituire il volto di una persona con quello di un’altra, spesso in maniera così verosimile da risultare quasi indistinguibile dalla realtà. I deepnude, invece, sono una sottocategoria di deepfake, consistente in immagini manipolate dall’IA con lo scopo di rimuovere gli indumenti di una persona, creando immagini finte e sessualmente esplicite.

Ma come si produce questo materiale?Non mancano online, si legge nel Rapporto, applicazioni e software che permettono di spogliare i bambini o creare situazioni per nulla innocenti, tutto questo partendo da fotografie magari scattate durante momenti di gioco, sport, feste. La macchina virtuale sovrappone ai vestiti un “corpo” modellato pezzo per pezzo, dando pose maliziose alterando il contesto dell’immagine. Le violazioni sono tante, dalla privacy alle manipolazioni delle immagini, provocando un danno alla reputazione del minore.” Lo sviluppo dell’IA ha permesso insomma ai pedofili il massimo risultato col minimo sforzo: mentre prima per adescare un bambino dovevano chattare di persona, adesso è possibile reperire un chatbot, cioè un programma che interagisce con i minori, usa il loro linguaggio al fine di creare una relazione empatica ed indurli allo scambio di materiale intimo. L’obiettivo è far sentire il bambino compreso, accettato, complice. In sostanza l’IA può manipolare i minori sfruttando le loro emozioni e convincendoli che in fondo “non c’è niente di male” a spogliarsi o considerare situazioni che di fatto non sono per nulla accettabili. Non solo, i chatbot cambiano link e canali continuamente, crittografano e distribuiscono in tempi rapidi il materiale. Diventa così quasi impossibile, per le forze dell’ordine, individuarli e bloccare. 

L’Associazione Meter, dopo aver monitorato Telegram, Signal e Viber, ha in particolare denunciato Signal, che protegge la privacy delle conversazioni e che i pedofili e adescatori trovano perfetta, visto che la crittografia end-to-end utilizzata dall’app conferma il social come il primo ed estremo baluardo della privacy, impossibilitando qualsiasi azione di contrasto al fenomeno. In questo modo è possibile produrre e smerciare –o anche raccogliere– materiale pedopornografico in maniera pressoché indisturbata. L’Associazione, in collaborazione con il Servizio Nazionale Tutela dei Minori della Conferenza Episcopale Italiana (CEI), ha anche proposto un questionario a 989 studenti degli Istituti secondari di secondo grado, fascia d’età 14-18. Tema delle domande il deepfake e il deepnude. Il 92,2% di essi hanno interagito con un chatbot, e l’81% del campione è convinto che i deepfake possano rovinare la reputazione e la vita di una persona. Il 53,4% conosce il fenomeno deepfake e il 42,3% ha visto qualcosa che l’ha messo a disagio. Il 65,7% degli intervistati conosce il fenomeno deepnude e il 59,4% teme la loro creazione e diffusione, un allarme sempre più preoccupante per i giovani. Peggio ancora: il 52,3% dei giovani non riesce a distinguere un video deepfake da uno reale. Lascia un po’ di speranza sapere che il 90,5% ritiene diffondere un deepfake e deepnude un serio pericolo, che il 65,1% di essi denuncerebbe senza indugio. 

“I risultati emersi, si legge nelle conclusioni del Rapporto, evidenziano l’importanza di un equilibrato coinvolgimento della comunità educante e del necessario sviluppo di consapevolezza e di conoscenza per mitigare i rischi. Per comunità educante, nello specifico, intendiamo la scuola e la famiglia. La scuola, infatti, rappresenta per i giovani l’ambiente di socializzazione per eccellenza, dove sviluppare le relazioni con i pari. Pertanto, la scuola deve essere coinvolta nella programmazione dell’educazione all’affettività, al rispetto dell’altro e all’educazione digitale. La famiglia ha invece la responsabilità di fornire tutti quegli elementi di sicurezza digitale attraverso la conoscenza e la partecipazione a corsi formativi educativi e valoriali, al fine di sostenerli e di supervisionare la loro crescita. La comunità è chiamata ad erogare interventi di sensibilizzazione e di formazione per promuovere lo sviluppo delle life skills anche nel mondo digitale, oltre i soft skills, con particolare riferimento all’empatia digitale che consentirà di sviluppare rispetto e contatto empatico anche attraverso i dispositivi. Sono necessari futuri studi longitudinali per individuare le variabili su cui strutturare potenziali percorsi di intervento preventivo e di contrasto di tali fenomeni, di sostegno alle vittime che subiscono gli effetti dell’uso inadeguato della rete e infine la valorizzazione delle potenzialità dell’IA utili alla società”.

Qui il Rapporto: https://associazionemeter.org/wp-content/uploads/2025/06/dossier_ai_2025_web.pdf