L’algoritmo che genera fake-news

02.08.2017 - Silvia Swinden

Quest'articolo è disponibile anche in: Inglese, Spagnolo, Francese, Greco

L’algoritmo che genera fake-news

Oggi ho aperto il mio account Facebook e ho scoperto che due amici in un altro Paese si erano sposati.
Mi è sembrato strano dal momento che loro sono stati insieme per molti anni, hanno avuto dei figli e non avevano fatto alcun annuncio al riguardo.
Ma il post su Facebook sembrava autentico. C’erano numerose foto e varie persone si congratulavano con loro. Così, ho mandato un messaggio alla ‘sposa’, la quale mi ha confermato che non si sono sposati: semplicemente, quando aveva tentato di inserire un nuovo indirizzo e-mail, Facebook le aveva chiesto se fosse sposata e con chi. E si era quindi creato autonomamente il post.

Noi siamo ormai abituati a scartare ogni tipo di fake-news condivisa su Facebook per malizia, credulità o oscure ragioni difficili da comprendere; ma vi possiamo generalmente individuare una qualche intenzione umana dietro.
Il fatto che Facebook possa produrre fake-news per via di un errore nel suo algoritmo fa sorgere una nuova questione. Sto seguendo con interesse, da un po’ di tempo, la discussione tra Mark Zuckerberg e Elon Musk sul futuro dell’Intelligenza Artificiale.

Il Guardian ha scritto: «Le fondamenta della battaglia per un mondo più tecnologico sono stato gettate da Musk – amministratore delegato di Tesla e SpaceX – all’inizio del mese, quando ha nuovamente spinto per una regolamentazione proattiva dell’intelligenza artificiale, poiché crede che essa ponga un “rischio fondamentale per l’esistenza dell’umanità”. Musk ha anche aggiunto: “Continuo a suonare l’allarme ma, finché le persone non vedranno i robot uccidere le persone in strada, non sapranno come reagire perché tutto ciò sembra oggi irreale”.

“Ho grande fiducia nel futuro dell’Intelligenza Artificiale. Sono ottimista – afferma invece Zuckerberg – E penso che le persone che si oppongono e cercano di paventare questi scenari apocalittici… beh, non le capisco. È decisamente negativo e, penso, in qualche modo anche irresponsabile”, ha risposto quando gli è stata chiesta la sua opinione al riguardo».

Intanto sembra che – prima di vedere i robot conquistare il mondo – assisteremo ad alcuni preoccupanti incidenti, poiché agli algoritmi che trattano la maggior parte dei compiti automatici dei ‘giganti del Web’ sono dati incarichi sempre più complessi, che potrebbero non essere in grado di gestire. Alcuni esempi di questo fenomeno sono già visibili: se quella bufala sui miei amici sembra abbastanza innocua, chi può invece sapere quale tipo di cambiamenti produrranno altre ‘informazioni’ meno inoffensive – per influenzare il comportamento di coloro che credono in qualunque cosa leggano sui social network?

Un altro incidente riguardante un software è accaduto a Facebook quando ha pubblicato per errore i nomi di coloro che regolano i contenuti del social network.
Sempre il Guardian ha scritto: «Facebook ha reso pubblica l’identità dei ‘moderatori’ esponendoli al rischio di essere bersaglio di presunti terroristi. Un bug nella sicurezza che ha colpito più di mille addetti ha costretto un moderatore a nascondersi, e questi vive ancora nella paura costante per la sua incolumità».

L’intenzionalità umana, cioè il modo in cui la coscienza struttura i dati provenienti da sensi e memoria, ha una direzione e un ‘tono’ emotivo. L’intera umanità cerca di scappare dalla sofferenza, andando verso una profonda felicità. Anche se si sbaglia (vedasi l’aumento della violenza), è possibile capire le radici del problema: paura, frustrazione, ingiustizia, indottrinamento, avidità.

E se gli algoritmi organizzano la propria struttura, noi non dovremmo accordare a loro una qualche intenzionalità. Solo gli umani possono dare una direzione. Le macchine seguiranno una certa logica, data dall’uomo che le ha create; ma la ricerca dell’intelligenza artificiale introduce necessariamente la possibilità di connessioni casuali, una certa ‘libertà’ che fa la differenza con i semplici computer.

Fin dal momento in cui Alan Turing, il padre dei moderni computer, creò l’omonimo test (l’obiettivo del quale era trovare il momento in cui non si sarebbe stati più in grado di distinguere le risposte fornite da un essere umano piuttosto da quelle fornite da una macchina), fin da quel momento è iniziata la corsa per liberarsi dall’obbligo del controllo umano. E ancor più preoccupante è il fatto che l’etica umana abbia perso molto spazio nella ricerca, in una società nella quale il valore più alto è il profitto. Nell’era del cyberspazio trans-nazionale, nessuno Stato può d’altronde sperare di applicare norme e regolamenti istituiti dai propri meccanismi democratici, per quanto imperfetti. Insomma, un nuovo modello di regime totalitario sta decidendo quale tipo di tecnologia modellerà le nostre vite.
Certo non è il caso di tornare al luddismo (1) oppure ad una paranoica paura della tecnologia e dei robot. Il pericolo ora sta nelle intenzioni umane, che decideranno se prevarrà l’Intelligenza Artificiale o piuttosto la Stupidità Artificiale. Solo umanizzando i valori della società potremo portare la tecnologia nella giusta direzione.

 

(1) Luddisti: i tessitori che, nell’Inghilterra del XIX secolo, distrussero i telai meccanici appena inventati, per proteggere il proprio lavoro.

Traduzione dall’inglese di Giovanni Succhielli

Categorie: Opinioni, Scienza e Tecnologia
Tags: , , , , , ,

Notizie giornaliere

Inserisci la tua email qui sotto per ricevere la newsletter giornaliera.


Diritti all'informAZIONE

Video presentation: What Pressenza is...

Milagro Sala

Canale di youtube

International Campaign to Abolish Nuclear Weapons

International Campaign to Abolish Nuclear Weapons

Archivi

Except where otherwise note, content on this site is licensed under a Creative Commons Attribution 4.0 International license.