Devant la lutte effrénée que se livrent présentement les géants des technologies autour de l’intelligence artificielle (IA), le chercheur Yoshua Bengio a sonné l’alarme sur les retombées néfastes de cette technologie lors d’une entrevue avec le journal La Presse. Bengio est l’un des fondateurs de l’institut Mila, (Institut québécois en Intelligence Artificielle) et l’un des pères de l’apprentissage profond (deep learning) à la base des robots comme les Chatbots qui possèdent une IA.

Il est actuellement à Paris au Sommet de l’IA. Il vient de participer au volet scientifique du Sommet. Bengio rappelle comment plusieurs conséquences néfastes d’une utilisation malveillante de l’IA sont déjà visibles avec la multiplication de la création de faux contenus présents partout sur les réseaux sociaux.

Pour réduire les risques, le récipiendaire du prix Turing appelle à une plus grande réglementation internationale et au développement de la recherche sur la sécurité de l’IA. En effet, présentement seulement une infime partie des immenses investissements dans le secteur y sont consacrés. 

À la fin de janvier, Bengio a présenté avec d’autres chercheurs les conclusions d’un premier rapport international sur la sécurité de l’IA à l’École normale supérieure de Paris, qui forme chercheurs et enseignants. Le rapport pour la sécurité de l’IA est le fruit d’une collaboration internationale d’une centaine d’experts nommés par 30 pays, les Nations Unies, l’Union européenne et l’OCDE. Leurs travaux ont démarré à l’issue du sommet sur la sécurité de l’IA au Royaume-Uni en novembre 2023. (La Presse)

Bengio soutient que « sans intervention gouvernementale, il est fort possible que les choses se développent vers une utilisation malveillante de l’IA. 

Le président américain Donald Trump vient d’annuler le décret sur la sécurité en matière d’IA pris par son prédécesseur. 

Ce qui me fait le plus peur, c’est la possibilité que l’humanité puisse disparaître d’ici dix ans. C’est terrifiant. Je ne comprends pas que plus de gens ne réalisent pas, explique Bengio. 

Bengio affirme que « les preuves de l’existence de risques supplémentaires comme les attaques biologiques ou les cyberattaques apparaissent progressivement avec le développement fulgurant de l’IA. À plus long terme, il s’inquiète d’une potentielle « perte de contrôle » des humains sur des IA animées de « leur propre volonté de vivre », d’autant que l’arrivée du robot conversationnel chinois DeepSeek a encore un peu plus « accéléré la course, ce qui n’est pas bon pour la sécurité. »  (La Presse)

Déjà en 2023, Yoshua Bengio avait expliqué les possibles dérives de l’IA lors d’interviews qu’il avait réalisées. En fait, le chercheur ne croit pas que la société est prête à faire face à la puissance de l’IA. Il souligne qu’il a développé cette technologie avec l’intention de faire le bien pour l’humanité et non que celle-ci soit mise au service d’intérêt purement commercial, militaire et malveillant. 

Mais, Bengio n’est pas le premier chercheur à vivre un échec moral face à l’utilisation sociale, militaire ou commerciale d’une technologie. 

Le jeune physicien Oppenheimer – qui étudiait en même temps le sanskrit pour comprendre la religion védique hindoue – est appelé à diriger le projet Manhattan durant la deuxième guerre mondiale. Les américains lui présentent le projet comme étant la construction d’un engin qui mettrait fin au conflit mondial et on lui explique que l’arme sera uniquement dissuasive et ne serait jamais, au grand jamais utilisée sur des êtres humains. 

Oppenheimer accepte de diriger le projet, il souhaite que la guerre, les génocides cessent. Ainsi dans la matinée du 16 juillet 1945, dans le milieu de nul part, Oppenheimer entre dans l’histoire alors qu’un minuscule soleil explose sur la terre. Quelques jours plus tard, le 6 août 1945, les américains larguent deux bombes atomiques sur le Japon. 

Oppenheimer est sévèrement trahi, par la suite il tente de mobiliser la conscience morale des scientifiques. De ce fait, il fut destitué et persécuté par le maccarthysme. 

L’histoire nous apprend que les chercheurs et scientifiques ont raison de craindre que l’utilisation d’une nouvelle technologie soit dirigée pour contrôler certaines populations et peut éventuellement amener à la destruction de l’humanité. 

Par ailleurs, si nous arrivons à dépasser les conduites destructives générées, en partie, par la peur de l’autre, il est fort possible que de grands changements soient réalisés grâce à l’IA.

Mais, nous devons souligner comment la mobilisation de l’activité des instincts de conservation de l’être humain face à un grand danger déclenche un enchaînement des sens, de la mémoire puis de la conscience, c’est-à-dire une structure dont les instructions forment de boucle continuelle d’actions et réactions. Il me semble que présentement nous sommes collectivement coincés dans cette séquence qui se présente comme suit: la sensation qu’un danger avance, la peur de l’autre, la création de l’ennemi et la destruction de l’ennemi

Ainsi, si les tendances actuelles perdurent il est possible que ces machines nous fassent la guerre, puisqu’elles auront encodées des enchaînements d’opérations similaires aux contenus mentaux et aux actions et réactions que projettent l’être humain dans le paysage humain devant la menace et le danger. 

À titre d’exemple, rappelons qu’en 2023, devant le congrès américain, Bengio a cité un scénario apocalyptique qu’on croyait jusqu’à tout récemment tiré tout droit d’un film de science-fiction. Il a expliqué qu’une intelligence artificielle super puissante qui reçoit la consigne d’assurer sa survie coûte que coûte, va déduire qu’elle ne peut plus être déconnectée, et ainsi entrera directement en conflit avec l’être humain qui va tenter de la débrancher. L’être humain va ainsi devenir une menace et l’IA va tenter éventuellement de l’éliminer pour garantir sa survie  

Reste à voir si les chercheurs et les développeurs de l’IA vont choisir de protéger la vie et l’être humain? ou encore protéger les intérêts particuliers des riches et des puissants de ce monde ?