«Un robot non può recar danno a un essere umano e non può permettere che, a causa di un suo mancato intervento, un essere umano riceva danno». Prima legge della robotica di Azimov

Dalla correzione automatica agli algoritmi dei social, l’Intelligenza Artificiale (AI) si trova ovunque. Questa tecnologia sta crescendo esponenzialmente – ha la potenzialità di superare presto i livelli umani di intelligenza. Può essere una forza per il bene in tanti modi. Ma cosa succede quando gli eserciti progettano l’AI per uccidere autonomamente? La “Campagna per fermare i robot killer” si è schierata.

L’intelligenza artificiale armata è pericolosa quanto le armi nucleari?

Elon Musk crede che l’Intelligenza Artificiale sia molto più pericolosa per il futuro dell’umanità rispetto alle armi nucleari. Questa posizione sembra discutibile quando si considera le conseguenze distruttive a lungo termine dei bombardamenti di Hiroshima e Nagasaki, ma la situazione cambia quando si tratta di sistemi d’arma basati sull’intelligenza artificiale.

Attualmente il futuro dell’umanità dipende precariamente dalla volontà dei leader mondiali di “premere il pulsante”, cioè un’azione che potrebbe portare alla guerra nucleare. La decisione di uccidere milioni di persone rimane in mani umane e ci sono già stati molti incidenti mancati.

In ciascun caso, i sentimenti umani del dubbio, della curiosità o del buon senso hanno impedito di prendere quella decisione. La differenza tra un essere umano e un robot è che l’umano può cambiare idea. Quando ci si trova col compito di uccidere un altro umano, l’intelligenza artificiale non possiede quel tipo di umanità.

Non è che i robot sono malvagi… semplicemente non sanno cos’è un umano. Non danno valore alla vita umana né capiscono cosa significa distruggere un’anima. Sono fatti di metallo e cavi, un sistema binario on-off che agisce o non agisce. Se l’intelligenza artificiale è programmata per uccidere, non c’è una zona grigia, non c’è spazio per una rivalutazione.

La Campagna per fermare i robot killer

Da questo sfondo distopico emerge la Campagna per fermare i robot killer. E’ stato lanciato di recente un nuovo sito internet: https://automatedresearch.org/, che fornisce documentazione e aggiornamenti sull’uso della tecnologia di armi robotiche. Per adesso, le forze militari sostengono che questi robot «servono per aiutare gli umani».

Jodie Williams, portavoce della Campagna per fermare i robot killer, dà una risposta da brividi: «E poi aiuteranno gli umani a uccidere».

Per anni, le forze militari hanno condizionato psicologicamente i soldati a uccidere senza rimorso. Basta leggere The Shortest History of War di Gwynne Dyer. Con tecniche che vanno dall’uso di bersagli di forma umana per le esercitazioni allo sparo, alle marce al ritmo di «Kill. Kill. Kill.», sarebbe ingenuo pensare che le forze militari non considererebbero l’uso di robot killer.

Parlando in termini comparativi più corretti, programmare un robot a uccidere probabilmente è più etico di fare il lavaggio del cervello a una persona.

Cosa ne pensate?

Traduzione dall’inglese di Mariasole Cailotto. Revisione di Thomas Schmid.