Molti ne sono entusiasti: l’AI (Artificial Intelligence), nella forma di ChatGPT (Generative Pre-Trained Transformer Chat) li aiuta a scrivere curriculum e testi, fa ricerche e le consegna ben confezionate, svolge perfettamente i temi scolastici partendo anche dalla traccia più difficile, spiega come procedere nel caso di controversie condominiali. E poi, da brava chat, chiacchiera con te. Puoi darle un nome. Puoi allenarla persino, se sei bravo e sai come aggirare certi limiti imposti, a fornirti eccitazioni erotiche, come se stessi parlando con un essere umano. C’è chi giura che svolga, gratis, addirittura il lavoro di uno psicoanalista, e chi ha smesso di consultare google quando avverte dei sintomi preoccupanti, perché ChatGPT è capace di fornire diagnosi mediche accurate.
Ci sono preoccupazioni etiche, ci sono paure. Presto ci trasformeremo tutti in AI-dipendenti, restii a imparare perché non servirà più, goffi nello scrivere perché anche questo non servirà più, inabili nel prendere decisioni perché l’intelligenza artificiale lo saprà fare molto meglio di noi, dotata come sarà (è) di una quantità quasi smisurata di informazioni, scaltrissima nell’effettuare collegamenti che a noi non sarebbero mai venuti in mente, e soprattutto razionale, priva di quelle debolezze psicologiche-emotive che inducono gli umani a commettere errori?
Sì, qualcuno ha di questi pensieri. Ma in prospettiva, come materia di riflessione filosofica. Intanto, i problemi che si lamentano, immediati ma che tutto sommato sembrano di scarsa importanza, sono le foto “finte”, immagini di scene che raccontano persone che non esistono, vicende mai avvenute, talmente rifinite da essere scambiate per vere. Ci si stupisce, al massimo. Uno spunto per prendere in giro chi si è lasciato ingannare, e vantarci che noi no, noi siamo più furbi. L’intelligenza artificiale non ci frega.
Ben altri sono i risvolti di una tecnologia che è andata molto più avanti di quanto, a meno che non siamo del settore, possiamo immaginare. Si è impegnata in un’indagine che l’ha portata in giro per il mondo l’immunologa e giornalista scientifica indiana Madhumita Murgia, che ha iniziato le sue ricerche aspettandosi di scoprire come l’AI avesse risolto problemi difficili e migliorato la vita di molte persone. Non è però stato così. Nel suo viaggio, riportato nel libro Essere umani. L’impatto dell’intelligenza artificiale sulle nostre vite (ed. Neri Pozza), ha dovuto registrare quanto pesanti, a volte devastanti e comunque sempre manipolatorie possano essere le conseguenze dell’AI sugli individui, sulle comunità e sulle culture in generale.
Murgia approfondisce dei casi esemplari, persone che solo apparentemente non hanno nulla in comune tra loro: un medico dell’India rurale, un rider di Pittsburg, un ingegnere afroamericano, una funzionaria burocratica argentina, una rifugiata irachena a Sofia, una madre single ad Amsterdam, un’attivista cinese in esilio.
Diana, la madre single: una storia kafkiana. Due suoi figli minori erano stati inseriti in liste di “ragazzi ad alto rischio di diventare criminali”, liste compilate con un sistema progettato dall’AI e basate su punteggi di rischio, con punti assegnati non solo per aver commesso un reato, ma per essere stati spesso assenti a scuola, aver assistito a una violenza, essere parente di qualcuno che ha guai con la giustizia, vivere in un quartiere povero o semplicemente essere poveri (le cosiddette “variabili proxy”). A quel punto, ecco una serie di misure volte a “tutelare” la società e prevenire il crimine. Interventi continui e quasi persecutori, con visite ripetute di assistenti sociali, poliziotti, funzionari a controllare e redarguire il genitore – Diana, in questo caso – trattandolo come un demente, rimproverandolo, minacciandolo. Piatti sporchi nel lavello? Attenzione, potremmo doverti portare via la bambina piccola.
È chiaro che così le situazioni di disagio e povertà non possono che peggiorare. Non esistono perdono, aiuto, comprensione. Nato povero e sfortunato, sei destinato a diventarlo ancora di più. Diana aveva finito col perdere il lavoro, stressata com’era, ed era stata ricoverata in ospedale con palpitazioni cardiache. «Le liste generate dall’algoritmo non erano soltanto fattori predittivi», scrive Murgia. «Erano maledizioni».
Uno degli aspetti più lamentati da chi frequenta i social riguarda la rimozione di immagini e contenuti. Viene subita da utenti che hanno semplicemente postato un quadro rappresentante un nudo, e viene subita anche, al contrario, da chi si trova di fronte foto e filmati cruenti accompagnati da commenti di giubilo, e si domanda perché non siano stati censurati. Quello che non ci domandiamo è chi siano i censori. Attraverso storie vere e dati, Murgia racconta quanto porti al DPTS (disturbi post-traumatici da stress) il dover vagliare i contenuti dei social, guardando violenze e atti d’odio a ritmo sostenuto per tutto il tempo, in modo, oggi, di addestrare gli algoritmi. Un lavoro a sua volta guidato dagli algoritmi: pausa pranzo e tempo per andare in bagno predeterminati, come la produttività, che non deve scendere sotto una certa soglia. A fronte di questo, remunerazione bassa, accordi di segretezza, scoraggiato in ogni modo il contatto con i colleghi, e figuriamoci l’unirsi in sindacato.
C’è poi il risvolto della sostituzione dell’AI generativa in lavori prettamente umani: illustratori, copywriter, progettisti di videogiochi, animatori e doppiatori si trovano già adesso in grande difficoltà, e molti dichiarano che viene chiesto loro, più che di creare… di correggere ciò che è stato fatto dall’AI (pagati un decimo rispetto a prima). E c’è la questione contraffazione, il “deepfake”: generati dalle tecnologie AI, foto di persone reali prese da Internet che un software fonde con corpi di attori porno, ottenendo video assolutamente realistici di cui non sarà facile ottenere la rimozione (su TikTok era diventato virale già nel 2020 un video deepfake di Tom Cruise, e parliamo di cinque anni fa, quando i software erano meno sofisticati di oggi).
Non dimentichiamo nemmeno i pregiudizi. Un esempio: il modo in cui vengono calcolati i punteggi di rischio che riguardano la salute. Negli USA, i pazienti neri – e con redito basso – sembravano avere punteggi più bassi, ma questo non accadeva perché si ammalassero meno, ma perché i progettatori avevano addestrato il sistema a stimare la salute i una persona in base ai suoi costi sanitari (e più si è poveri, meno si ricorre all’assistenza sanitaria). Attivisti pieni di buona volontà stanno cercando di raddrizzare le cose. Non è detto che non ci riescano, ma intanto quanti danni sono stati fatti?
Si potrebbe continuare a lungo, e Murgia non si è tirata indietro. Ha indagato le più varie situazioni, incontrato avvocati che cercano di difendere chi è rimasto intrappolato da questi sistemi opachi che possono disporre delle nostre vite e procurarci danni anche senza che lo sappiamo. E ha affrontato il tema forse più delicato e spaventoso: il controllo. In Cina (e Murgia porta riferimenti precisi) esistono già da un po’ sistemi software interconnessi che aggregano i dati dei cittadini e l collegano ai database della polizia. Gli algoritmi a funzione predittiva considerano sospette decine di comportamenti (addirittura spegnere ripetutamente il cellulare e avere certe espressioni del viso, riprese dalle infinite videocamere), e per motivi di “sicurezza pubblica” moltissimi cittadini, soprattutto dissidenti o appartenenti a gruppi etnici minoritari, sono stati e sono sorvegliati e vessati, quando non portati in campi di rieducazione.
Sorveglianza e controllo. Capillari, incessanti. I governi (la rete di connessioni esisterà solo in Cina? non scherziamo) potranno a breve arrivare a prevedere e neutralizzare qualunque azione o manifestazione di protesta, sia individuale che collettiva. E le aziende tecnologiche, con miliardi di utenti, aumenteranno il loro potere, che già è immenso.
George Orwell, in 1984. Ninteeen Eighty Four, scritto nel 1949: «Se vuoi un’immagine del futuro, immagina uno stivale che schiaccia il volto umano. Per sempre».