Le jury n’a mis que quelques semaines pour prendre une décision que les congrès, les conférences internationales et les assemblées générales d’actionnaires évitaient depuis des années : il a statué que la conception d’Instagram pouvait constituer une négligence.

L’audience s’est déroulée dans un tribunal de Los Angeles. Pendant des semaines, un groupe de citoyens anonymes a écouté le témoignage d’une mère, des rapports de neuroscientifiques et des courriels internes que Mark Zuckerberg aurait préféré garder secrets. Finalement, le jury a conclu que Meta et YouTube avaient conçu leurs plateformes non pas pour aider à créer des liens, mais pour rendre les utilisateurs dépendants. Et qu’ils l’avaient fait en sachant pertinemment qui ils visaient.

La plaignante s’appelle Kaley G. M. Elle a vingt ans. Mais l’histoire qui l’a menée devant le tribunal a commencé bien plus tôt : à six ans, elle regardait des vidéos YouTube ; à neuf ans, elle a eu son premier iPhone ; à dix ans, elle était déjà accro à Instagram, TikTok et Snapchat. Sa mère a décrit au jury une situation qui ressemble davantage à un diagnostic médical qu’à une plainte pour violence conjugale : « Elle n’a aucune mémoire à long terme. Elle ne peut pas vivre sans son téléphone. Elle est capable de se battre simplement parce qu’on touche à son téléphone. »

Il ne s’agit certainement pas d’une exagération maternelle. D’après les experts ayant témoigné au procès, c’est la description d’un cerveau qui s’est développé sous le bombardement systématique d’algorithmes conçus pour exploiter sa plasticité neuronale. Cette même plasticité qui nous permet d’apprendre les langues durant l’enfance est celle qui, exposée à des cycles de récompenses variables et de notifications imprévisibles, finit par remodeler les circuits de l’attention, de la mémoire et de la régulation émotionnelle. Kaley a développé une dépression, de l’anxiété et une dysmorphie corporelle, ce qui l’a amenée à détester son propre reflet.

Mark Zuckerberg aurait préféré ne pas être là. Pendant près de vingt ans, le fondateur de Facebook avait accompli ce qui semblait impossible : bâtir un empire de plus de trois milliards d’utilisateurs sans jamais avoir à comparaître devant un tribunal pour répondre sous serment. Le 18 février 2026, cette série s’est interrompue.

Son témoignage était en partie préparé, en partie un aveu involontaire. À un moment donné, il a tenté de rejeter la faute sur les enfants eux-mêmes : « L’accès à Instagram est interdit aux moins de treize ans. Or, un certain nombre de personnes mentent sur leur âge pour utiliser nos services. » Cette affirmation est techniquement vraie. Cependant, l’avocat de Kaley lui a rappelé que Meta possède la technologie de reconnaissance de formes la plus avancée au monde et a toujours choisi de ne pas l’utiliser pour filtrer ces enfants. Car sans eux, la courbe de croissance se stabilise.

Zuckerberg a également tenté de faire preuve de magnanimité : lors du procès, il a évoqué sa fondation philanthropique, les milliards de dollars alloués à la recherche scientifique et son engagement pour le bien-être mondial. Mais le contraste est trop frappant. Les mêmes documents internes examinés par le jury ont révélé que, depuis au moins 2017, Meta savait qu’Instagram nuisait aux adolescentes. Ils le savaient, l’ont documenté et ont choisi de ne rien faire de concret. L’algorithme a continué de s’optimiser pour maximiser le temps passé devant les écrans, et non pour protéger la santé mentale.

Le jugement initial s’élève à trois millions de dollars. Une somme qui, pour deux entreprises gérant des dizaines de milliards de dollars par an, ne représente qu’une goutte d’eau dans leur bilan. Mais les avocats savent que l’enjeu n’était pas d’ordre financier. La répartition des responsabilités – 70 % pour Meta, 30 % pour YouTube – en est un premier indice. La seconde phase du procès, toujours en cours, déterminera si les entreprises ont également commis une fraude ou une malveillance. Dans ce cas, les montants pourraient être bien plus élevés. Mais plus important encore est ce qui a déjà été établi : pour la première fois aux États-Unis, un jury a déclaré que la conception même d’une plateforme pouvait être considérée comme négligente.

Il ne s’agit pas d’un cas isolé. Au Nouveau-Mexique, un autre jury était parvenu à une conclusion similaire quelques mois auparavant, mais avec un montant bien plus conséquent : 375 millions de dollars. En mai, un juge déterminera si Meta doit également financer des programmes publics pour réparer les dommages sociaux causés. Par ailleurs, dans 41 États, les recours collectifs intentés contre l’entreprise en 2023 commencent à être portés devant les tribunaux.

Ce qui se passe aujourd’hui rappelle quelque chose que  les juristes de la vieille école reconnaissent immédiatement. C’est le même schéma qu’a suivi l’industrie du tabac dans les années 1990 : des décennies de déni des preuves, des études internes démontrant la nocivité du produit, des campagnes de relations publiques pour semer le doute et, finalement, une avalanche de procès qui a transformé la réglementation et la perception du public. À l’époque, il s’agissait du cancer du poumon. Aujourd’hui, il s’agit du cerveau des adolescents manipulé par des algorithmes.

La mère de Kaley ne s’est pas exprimée pendant le procès comme une militante ou une avocate. Elle a parlé comme quelqu’un qui a vu sa fille se perdre dans les écrans. Elle a dit quelque chose qu’aucune donnée économique ni aucun rapport d’entreprise ne peut réfuter : « Je pense que les réseaux sociaux, son addiction aux réseaux sociaux, ont modifié le fonctionnement de son cerveau. »

Cette phrase, murmurée à la barre des témoins, est sans doute plus éloquente que n’importe quel argument juridique. Car elle va droit au but : pendant plus d’une décennie, les grandes plateformes ont fonctionné comme si l’enfance était une ressource inépuisable, un territoire sans loi où tout est permis pourvu que l’attention soit captée. Le modèle économique de la publicité est implacable : toujours plus de temps passé devant les écrans, toujours plus de données, toujours plus de publicités. Le bien-être des utilisateurs n’a jamais été pris en compte, si ce n’est comme outil de relations publiques.

Ce verdict ne fera pas fermer Instagram ni YouTube. Mais il a ouvert une porte que beaucoup croyaient fermée à jamais. La prochaine fois qu’un dirigeant de la Silicon Valley parlera de « connecter le monde » et de « bâtir une communauté », on pourra lui rappeler qu’un jury de citoyens ordinaires a déjà statué que ces paroles, prononcées par ceux qui conçoivent des appareils destinés aux enfants, ne relèvent pas de la philanthropie. Elles constituent une preuve.

Kaley G. M. recevra son indemnisation. Mais ce qui restera de ce procès, ce n’est pas l’argent. Ce sera la certitude que, pour la première fois, le système judiciaire a affirmé que le cerveau d’un enfant ne peut être traité impunément comme une source de profit. Et que lorsqu’une entreprise décide d’agir ainsi, des mécanismes existent pour la tenir responsable.

En quittant le tribunal, la mère de Kaley ne fit aucune déclaration solennelle. Elle prit simplement le bras de sa fille et se dirigea vers la sortie. Derrière elles, les avocats de Meta annonçaient déjà leur intention de faire appel. Mais dans la salle d’audience vide, tandis que les lumières s’éteignaient, l’image de ces neuf citoyens qui, pendant une semaine, avaient écouté, délibéré et finalement inscrit sur un formulaire ce que des millions de parents voient chaque soir chez eux, restait gravée dans les mémoires : ce n’était pas un accident. C’était prémédité. Et il est temps que cela ait un prix.

 

Traduction : Evelyn Tischer