Image : Graphique IBM représentant les modifications quotidiennes d’articles sur Wikipédia. Atteignant un volume de plusieurs téraoctets, le texte et les images contenus sur le site sont un exemple de big data (« mégadonnées »).

« L’erreur est humaine, mais pour provoquer une vraie catastrophe, il faut un ordinateur. »

Un article de Pressenza décrivait récemment comment les algorithmes utilisés par les réseaux sociaux créent des fake news sans aucune intervention humaine.

C’est loin d’être la seule cyberbourde du moment.

« Quand les algorithmes dérapent : Instagram utilise un post déclarant ʺJe vais te violerʺ dans une publicité Facebook. Pour promouvoir ses services sur Facebook, Instagram a repris le post d’une utilisatrice affichant la phrase ʺJe vais te violer avant de te tuer, sale puteʺ. Dernier exemple en date d’un algorithme de réseau social mettant en avant des contenus violents». The Guardian

Toujours à propos de Facebook, une de ses expériences aurait été (selon Facebook, précisons-le) exagérée. Elle avait été largement relayée dans les médias comme une preuve de la menace représentée par l’intelligence artificielle (IA) : « Facebook supprime deux de ses robots dotés de l’IA après qu’ils ont créé leur propre langage. Des chercheurs du Facebook Artificial Intelligence Research (Centre de Recherche sur l’Intelligence Artificielle) ont développé cette année un chatbot (« agent conversationnel ») censé apprendre à négocier en imitant les habitudes de troc et de négoce des humains.

« Mais quand le réseau social a voulu associer deux des programmes (surnommés Alice et Bob) afin qu’ils commercent entre eux, ceux-ci ont commencé à apprendre leur propre forme étrange de communication. La conversation du chatbot “s’est éloigné du langage humain à force que les agents développent leur propre langage de négociation” expliquent les chercheurs. The Telegraph

Ce cas est-il assez parlant pour que l’on se prononce sur la potentielle dangerosité de robots communiquant dans une langue qu’ils sont les seuls à comprendre ?

La technologie est en passe de franchir une nouvelle étape qui échappe aux valeurs morales, celles destinées à réguler le comportement humain, car très peu de gens peuvent vraiment en saisir la portée. Cette situation provoque un sentiment de rejet de la société, qui préfère « laisser faire les spécialistes ». Mais qui sont ces « spécialistes » ?
Beaucoup se réjouissent de la fin de la science telle que nous la connaissons. Grâce au big data, il n’est désormais plus nécessaire d’émettre une hypothèse, de rassembler les données adéquates, de mener une étude statistique puis de déterminer si l’hypothèse se vérifie ou non.

Dans son article Facebook’s war on free will: How technology is making our minds redundant (« Facebook en guerre contre le libre arbitre, ou comment la technologie rend nos esprits obsolètes »), Franklin Foer explique avec force détails comment l’analyse d’une quantité gigantesque de données puisées sur internet permet de repérer des schémas de manière mécanique et d’en tirer des conclusions sur le comportement humain (mais pas uniquement) sans l’intervention d’une conscience :
« Depuis l’aube de l’humanité, la création de savoirs a toujours découlé d’un laborieux enchaînement d’essais et d’erreurs. Les humains élaborent des théories sur le fonctionnement des choses, puis ils examinent les preuves afin de confronter leurs hypothèses à la réalité. Les algorithmes chamboulent la méthode scientifique : les schémas émergent à partir des données collectées, des corrélations, mais non plus d’hypothèses. L’humain disparaît totalement du processus de recherche. À l’époque où il en était encore l’éditeur en chef, Chris Anderson écrivait dans le magazine Wired : « Nous pouvons arrêter de chercher des modèles. Il est désormais possible d’analyser des données sans émettre d’hypothèses sur ce qu’elles pourront bien révéler. Il suffit d’entrer les chiffres dans les plus gros clusters du monde et laissez les algorithmes trouver des schémas là où la science en est incapable. »  The Guardian

Selon une étude de l’Université de Stanford reprise dans The Economist, il serait possible de découvrir l’orientation sexuelle de quelqu’un à travers l’analyse de visages par des algorithmes. Les recherches menées par Michal Kosinski et Yilun Wang, de l’Université de Stanford, montrent que la vision par ordinateur est à même de deviner l’orientation sexuelle en analysant des visages : les deux chercheurs avancent que le logiciel est capable de détecter de très subtiles différences dans leur structure. Avec le bon ensemble de données, Dr. Kosinski affirme que des systèmes d’IA du même type pourraient être programmés pour repérer d’autres informations tout aussi personnelles, comme le QI ou l’orientation politique. Ce n’est pas parce que les humains ne savent pas repérer certains signaux sur les visages que les machines en sont incapables.

Sans surprise, la communauté LGBT n’a pas accueilli ces conclusions d’un très bon œil. Bien que les résultats ne soient pas exacts à 100 %, les employeurs ou les autorités pourraient dans le futur utiliser ces algorithmes pour porter des jugements sur les gens.

L’intentionnalité, ça ne se débranche pas

La conscience humaine perçoit le monde qui l’entoure en même temps qu’elle se perçoit elle-même. Elle structure ces perceptions dans un modèle de « réalité » en comparant chaque nouvelle information avec ses souvenirs, ajoutant des éléments issus de la nature émotionnelle du moment. Elle tend également vers une direction plus profonde et omniprésente, loin de la douleur et de la souffrance, en quête de sens et de bonheur. Contrairement aux procédés mécanistes (newtoniens, par exemple) et probabilistes (le chaos, le quantum…), cette intentionnalité est « entraînée » par une image projetée dans le futur. Malgré la violence et la déshumanisation qui règnent dans le système actuel, où l’idéologie dominante encourage l’individualisme et l’égoïsme, on ne peut nier chez l’Homme une volonté de tendre vers l’amour et la compassion. Elle n’est pas forcément visible à travers les médias, mais on retrouve cette volonté à l’échelle locale, ou à la suite de catastrophes naturelles par exemple. On peut en déduire que quand des scientifiques avancent une hypothèse, ils n’essaient pas seulement de mettre deux choses en corrélation, ils cherchent également à fuir la douleur et la souffrance. L’hypothèse se révélera peut-être fausse, mais dans ce cas le ou la scientifique cherchera d’autres moyens de résoudre le problème. Parce que les êtres humains se sentent concernés.

Même chez ceux dont la structure mentale tend vers la violence, on retrouve un certain instinct de survie, de compassion pour eux-mêmes ou pour leurs proches.

Il est évident que l’analyse mécanique du big data offrira un incroyable éclairage sur différentes corrélations, mais rien ne garantit que celles-ci serviront à résoudre les grands problèmes de l’humanité. Parce que les machines, elles, ne se sentent pas concernées. Seules les personnes qui les programment le sont. Et si leur première intention est de gagner de l’argent, alors c’est ce que les machines chercheront à faire.

L’analyse du big data en faveur de la médecine s’annonce déjà très prometteuse, il ne s’agit donc pas de jeter le bébé avec l’eau du bain.

Les robots tueurs (automate capable d’avoir une action létale de manière automatisée, NdT) sont programmés pour tuer. Un soldat, formé à tuer, est quant à lui encore capable de faire preuve de compassion, concept inconnu chez le robot tueur. Nous pouvons citer plusieurs exemples de personnes ayant empêché un massacre nucléaire, là où une machine n’aurait pas bronché. C’est le cas de Stanislas Petrov (décédé récemment), un officier de l’armée soviétique qui avait décidé d’ignorer un avertissement de son ordinateur alertant que les États-Unis avaient lancé une attaque nucléaire contre l’URSS. Dans sa construction de la « réalité », l’intentionnalité intègre ce que d’autres peuvent être en train de gérer intérieurement, « Je pense donc tu penses », « Je me sens concerné, donc tu te sens concerné ». Peut-être est-elle dans l’erreur, mais au moins un choix existe.

En outre, il ne faut pas supposer que l’information évaluée par les algorithmes est fiable. Les gens ne révèlent pas leurs vrais sentiments ou intentions sur le web. Disons plutôt qu’ils, que nous, donnons une image de nous-mêmes partiale et biaisée pour se conformer à certains modèles sociaux ou à certaines intentions. Et, comme nous l’avons vu plus haut, même le plus sophistiqué des algorithmes est capable de faire une erreur.

La peur de voir les robots conquérir le monde ne repose sans doute encore sur rien, car cela signifierait qu’ils peuvent développer une intentionnalité. Puisque pour l’instant seule l’intention humaine peut imposer une direction au big data, nous devons concentrer nos efforts sur l’élimination des guerres, de la revanche et de la cupidité, toutes enracinées dans la peur, et développer des accords internationaux pour mettre les données présentes sur internet au service de la lutte contre la douleur et la souffrance. La dictature du big data n’est pas une chimère virtuelle, ses responsables ont des noms, des visages, des intentions. Nous autres gens ordinaires pouvons nous rapprocher d’eux pour exiger une utilisation humaine de notre information.

 

Traduit de l’anglais par Laurane Tesson