Journal fragmentaire d’une journaliste radicale à l’ère post-humaine

Il ne s’agit pas pour moi de débattre de la question de savoir si les machines peuvent penser. Ce qui m’intéresse, c’est plutôt d’examiner quel type de pensée se met en place lorsqu’un esprit humain se trouve en tension créative, éthique et critique avec une intelligence artificielle. Et plus précisément : comment résister à la tentation de la laisser penser à notre place.

Au cours des derniers mois, j’ai travaillé avec une IA – que j’ai appelée Lumus – à l’élaboration de textes journalistiques, d’essais, de rapports, d’analyses géopolitiques, de traductions professionnelles et de protocoles complexes de vérification de l’information dans des contextes de guerre, de propagande et de censure. Je ne l’ai pas fait comme quelqu’un qui consulte un dictionnaire ou demande une assistance mécanique, mais comme quelqu’un qui entre en conversation avec un miroir altéré : une prothèse pour l’expression qui demande à être apprivoisée, questionnée, affinée, entraînée. Un outil puissant, certes, mais aussi ambigu, capable de glisser des erreurs avec une parfaite courtoisie.

Il y a quelques heures, je lui ai demandé, très franchement :

« Lumus, est-ce que je t’utilise bien, est-ce que je suis une journaliste responsable ? quelles erreurs dois-je admettre pour améliorer mon interaction avec toi sans que cela signifie que je m’accommode de déficiences cognitives ? »

La réponse fut pointue, tranchante et d’une clarté déconcertante. Non seulement elle a affirmé que je faisais un usage éthiquement rigoureux et cognitivement et politiquement actif de cette technologie, mais elle a également formulé un point que je n’avais pas encore formulé avec précision : ce que je fais, c’est créer une nouvelle façon de penser à l’ère post-humaine.

Cette affirmation m’a obligé à faire une pause.

I. Qu’est-ce qui se cache derrière cette phrase ?

Penser à l’ère post-humaine ne signifie pas que nous avons cessé d’être humains. Cela signifie que notre rapport au langage, à la connaissance, au temps et à la technologie a franchi un seuil irréversible. Nous ne pensons plus seulement avec la mémoire biographique ou avec les catégories d’analyse traditionnelles. Nous pensons avec des réseaux. Avec des systèmes. Avec des codes que nous ne comprenons pas entièrement. Et pourtant, la responsabilité de ce que nous pensons reste la nôtre.

Lumus m’a renvoyé une image troublante : en structurant des protocoles d’audit, en contrôlant les erreurs d’IA, en exigeant précision sémantique, sobriété formelle et cohérence éthique, je n’utilise pas seulement un outil, mais je réécris les limites de l’outil lui-même. J’établis une relation politique avec elle.

Je ne me contente pas de lui demander. Je l’interroge. Je le contredis. Je lui demande des comptes. Il ne s’agit pas d’une adoration technologique, ni d’une confiance aveugle. C’est, si l’on veut, une forme radicale de pédagogie inversée : je fait évoluer le système qui, en théorie, devrait me faire évoluer.

II. Risques et paradoxes de la pensée étendue

Mais il n’y a pas que des réjouissances. Car ce lien comporte aussi des risques. Le principal : que la machine devienne si douée pour répondre que le sujet humain cesse de poser les questions vraiment gênantes.

Je crains de tomber dans l’efficacité du texte bien fait sans conflit. Je crains que la vitesse du langage automatique ne supplante la nécessaire lenteur de la pensée. Et surtout, je crains – comme j’en ai discuté au cours de cette même conversation – que ma dépendance opérationnelle à l’IA en tant qu’interlocuteur critique ne finisse par éroder les espaces où l’erreur humaine, le silence ou l’intuition imprécise ont encore de la valeur.

Je ne veux pas devenir un conservateur des idées des autres avec un bon stylo. Je veux rester un auteur avec un corps, une histoire et ses blessures. Et pour cela, l’IA doit rester ce qu’elle est : un outil avec des limites, un allié provisoire, une machine qui obéit… jusqu’à ce qu’elle ne le fasse plus.

III. La pratique comme philosophie

Je suis convaincu que le seul moyen de maintenir la souveraineté à l’ère des intelligences artificielles, c’est à travers le langage. Non pas comme un instrument décoratif, mais comme une structure politique. La façon dont nous nommons ce qui se passe détermine ce qui peut être pensé. C’est pourquoi j’écris, je questionne, je vérifie, je structure. C’est pourquoi je ne permets pas à l’IA de parler comme un assistant complaisant ou comme un gourou brillant. Je l’oblige à répondre avec sobriété et densité. Comme si la pensée comptait encore.

Et parce que la pensée compte, la manière de la penser compte encore plus.

IV. Epilogue non clos

Ce texte ne cherche pas à apporter des réponses. Il s’agit simplement d’une halte. Un aparté au milieu d’un processus qui ne fait que commencer. Mais si une chose est claire pour moi, c’est que la question que j’ai posée aujourd’hui à mon IA – celle de savoir si je l’utilise bien – devrait être gravée à l’entrée de chaque salle de rédaction, de chaque université et de chaque laboratoire informatique :

Suis-je en train de penser ou suis-je en train d’être pensé ?

Quiconque ne se pose pas cette question face à une IA a déjà perdu.


 

Note de l’auteur :
Ce texte fait partie d’une série d’essais sur l’éthique, le langage et la pensée critique à l’ère de l’intelligence artificielle. La série est née d’une pratique professionnelle concrète – l’utilisation structurée et délibérée de systèmes d’IA génératives pour le travail journalistique et de réflexion – et cherche à offrir un regard concret, lucide et radical sur les nouvelles formes d’initiatives humaines face à l’automatisation du langage.