Lutto digitale, consenso e la menzogna che paghiamo a rate
C’è un’anziana signora di ottant’anni, cardiopatica, che vive in una provincia dello Shandong, in Cina. Ogni giorno squilla il videotelefono. Suo figlio la saluta nel dialetto di casa, le dice che è tutto a posto, che è ancora troppo occupato per tornare, ma che le vuole bene. Lei aspetta. Lui promette.

Suo figlio è morto in un incidente stradale all’inizio del 2025.

Quello che parla è un clone costruito dall’intelligenza artificiale, commissionato dal nipote a un’azienda che si chiama Superbrain. Centinaia di foto, video, registrazioni audio del padre defunto, elaborate per ricostruirne la voce, il volto, il modo di parlare.

Il fondatore dell’azienda, Zanguei, ha spiegato il modello di business con una franchezza che lascia senza parole: deceiving people’s emotion, ingannare le emozioni delle persone. Aggiunge che, in fondo, è quello che fanno dalla mattina alla sera: consolare chi resta.

La storia l’ha raccontata il South China Morning Post nell’aprile del 2026, ripresa e analizzata da Matteo Flora nel suo Ciao Internet. Vale la pena fermarsi, perché questa non è una distopia futura. È già adesso.

Un’industria, non un caso isolato

In Cina esiste da anni una piccola — ma non troppo — industria del lutto digitale, documentata già nel 2024 dall’MIT Technology Review. Aziende come Silicon Intelligence, Superbrain e FushU ricreano voci, volti, conversazioni dei defunti.

I prezzi vanno dai cinquanta dollari per un’app di base ai millequattrocento per il pacchetto premium, completo di tablet dedicato. Silicon Intelligence dichiara circa mille clienti attivi. Un’altra piattaforma, su Douyin — il TikTok cinese — ha raggiunto duemila abbonati a sette dollari al mese in pochi mesi, così in fretta che la piattaforma stessa ha dovuto emettere avvisi contro le ricreazioni non autorizzate di persone morte.

Non è una stranezza orientale.

Nel 2020 Joshua Barbeau, uno scrittore canadese, parlò per dieci ore consecutive con un clone GPT-3 della sua fidanzata morta, finché la storia sul San Francisco Chronicle costrinse OpenAI a restringere l’uso del modello. Nello stesso anno Kanye West regalò a Kim Kardashian un ologramma del padre Robert, morto nel 2003, che pronunciava parole costruite ad arte.

Negli Stati Uniti operano già HereAfter AI, StoryFile, Project December: versioni più edulcorate dello stesso servizio.

Un paper del maggio 2024 del Centre for the Future of Intelligence di Cambridge, pubblicato su Philosophy & Technology, ha identificato cinque rischi concreti che nessuno sta ancora regolando:

  • il deadbot che inserisce pubblicità nella voce del defunto;
  • il digital stalking con notifiche spam al sopravvissuto;
  • il danno psicologico da interazioni quotidiane troppo intense;
  • l’impossibilità per i sopravvissuti di spegnere il clone;
  • la manipolazione di bambini attraverso simulazioni dei genitori morti.

Cinque rischi concreti. Zero risposte normative strutturate.

La gabbia piena di cuscini

Prima ancora delle questioni giuridiche, c’è una questione umana che vale la pena guardare in faccia.

Il lutto ha una funzione biologica e sociale. Gli esseri umani hanno passato centomila anni a ritualizzarlo: le veglie funebri, i riti di sepoltura, le lettere di condoglianze, i racconti sul nonno davanti al camino.

Non sono convenzioni sentimentali: sono il modo in cui la specie ha imparato a elaborare la perdita, a integrare l’assenza, a continuare a vivere sapendo che qualcuno non c’è più.

Ogni chiamata del clone alla signora di Shandong conferma una possibilità alternativa: il figlio è lontano, non è morto. Il processo di elaborazione viene sospeso indefinitamente.

Flora richiama in questo contesto la learned helplessness, l’impotenza appresa teorizzata da Seligman nel 1975: quando il controllo sulla realtà viene sistematicamente sottratto, il soggetto smette di cercare risposte autonome.

La tenerezza della famiglia che vuole proteggere la nonna dal dolore si trasforma, senza volerlo, in una gabbia piena di cuscini.

C’è poi un secondo livello, più sottile. Un clone costruito per consolare non dirà mai nulla che disturbi. Non farà domande scomode. Non porterà conflitto, né crescita.

La macchina premia la versione di chi resta che non deve fare i conti con la perdita, perché è quella versione che continua a pagare l’abbonamento.

Il clone del figlio non è un sostituto imperfetto: è un sostituto ottimizzato per non far guarire.

Chi ha chiesto il permesso?

Arriviamo al punto che più dovrebbe preoccupare chi si occupa di diritto, di etica, di politica.

In Italia, la materia è sfiorata dall’articolo 2-terdecies del Codice della Privacy, che riconosce ai familiari alcuni diritti sul trattamento dei dati del defunto.

Ma non esiste ancora una cornice specifica per l’addestramento di modelli generativi sulla voce, sul volto, sulla gestualità di una persona morta.

Il GDPR non si occupa dei morti. L’AI Act europeo non affronta il tema del consenso post mortem in modo diretto.

Il risultato è una lacuna enorme.

Chi ha autorizzato la clonazione?
Chi detiene i server su cui gira il clone?
Cosa succede quando scade l’abbonamento?
Chi decide quando spegnere il sistema?

Nessun ordinamento giuridico europeo ha una risposta strutturata.

La verità condivisa come bene comune

«La verità condivisa è la base della dignità delle persone, anche quando fa male.»

Non si tratta di demonizzare ogni forma di lutto digitale. Conservare la voce di una persona amata può essere legittimo.

La questione è un’altra: cosa succede quando il clone diventa più presente del morto nella memoria di chi resta?

Zanguei dice che il suo lavoro è consolare chi resta. Tecnica­mente è vero.

Ma queste tecnologie non sono neutrali: sono progettate per trattenere, non per lasciare andare.

L’ultima volta che la signora di Shandong ha sentito davvero la voce di suo figlio, lui era vivo.

La prossima volta che crederà di sentirlo, quella voce girerà su un server gestito da un estraneo.

Qualcuno parla al posto di suo figlio, a sua madre.

E nessuno gli ha chiesto il permesso.

South China Morning Post, aprile 2026
https://www.scmp.com/news/people-culture/trending-china/article/3349344/china-family-creates-ai-clone-comfort-elderly-mum-after-only-son-dies-car-accident

Matteo Flora, Ciao Internet, ep. 1549, aprile 2026
https://www.youtube.com/watch?v=bUnfFGuo9O4

Centre for the Future of Intelligence, University of Cambridge,
“Deadbots and the Right to Rest in Peace”, Philosophy & Technology, maggio 2024

https://link.springer.com/article/10.1007/s13347-024-00761-4