Los Ángeles, 25 de marzo de 2026
El jurado tardó apenas unas semana en hacer lo que los Congresos, las conferencias internacionales y las juntas de accionistas llevaban años evitando: dijo que el diseño de Instagram puede ser un acto de negligencia.
Ocurrió en un tribunal de Los Ángeles. Allí, un grupo de ciudadanos anónimos escuchó durante semanas los testimonios de una madre, los informes de neurocientíficos y los correos internos que Mark Zuckerberg hubiera preferido que nadie leyera. Al final, determinaron que Meta y YouTube habían construido sus plataformas no para conectar, sino para enganchar. Y que lo hicieron sabiendo a quiénes estaban enganchando.
La demandante se llama Kaley G. M. Tiene veinte años. Pero la historia que llevó al tribunal comenzó mucho antes: a los seis, mirando videos en YouTube; a los nueve, con su primer iPhone; a los diez, ya atrapada en Instagram, TikTok y Snapchat. Su madre describió ante el jurado algo que suena más a diagnóstico clínico que a queja doméstica: «No tiene memoria a largo plazo. No sabe vivir sin un teléfono. Es capaz de emprender una batalla solo con que toques su móvil».
Definitivamente no es una exageración materna. Es, según los expertos que declararon en el juicio, la descripción de un cerebro que creció bajo el asedio sistemático de algoritmos diseñados para explotar su plasticidad neuronal. La misma plasticidad que permite aprender idiomas en la infancia es la que, expuesta a bucles de recompensa variable y notificaciones impredecibles, termina reconfigurando los circuitos de la atención, la memoria y la regulación emocional. Kaley desarrolló depresión, ansiedad y un trastorno de dismorfia corporal que la llevó a odiar su propio reflejo.
Mark Zuckerberg hubiera preferido no estar allí. Durante casi dos décadas, el creador de Facebook había logrado lo que parecía imposible: construir un imperio de más de tres mil millones de usuarios sin sentarse jamás frente a un tribunal para responder bajo juramento. El 18 de febrero de 2026, esa racha se rompió.
Su testimonio tuvo algo de guión ensayado y algo de confesión involuntaria. En un momento, intentó desviar la responsabilidad hacia los propios menores: «Los usuarios menores de trece años tienen prohibido acceder a Instagram. Hay un grupo de personas, potencialmente un número significativo, que miente sobre su edad para usar nuestros servicios». La afirmación es técnicamente cierta. Lo que el abogado de Kaley le hizo recordar, sin embargo, es que Meta posee la tecnología de reconocimiento de patrones más avanzada del mundo y ha optado sistemáticamente por no usarla para filtrar a esos niños. Porque sin ellos, la curva de crecimiento se aplana.
Zuckerberg también intentó un gesto de grandeza: Durante el juicio habló de su fundación filantrópica, de los miles de millones destinados a investigaciones científicas, de su compromiso con el bienestar global. Pero el contraste es demasiado brutal. Los mismos documentos internos que el jurado había examinado mostraban que, desde al menos 2017, Meta sabía que Instagram estaba dañando a las adolescentes. Lo sabía, lo documentó y decidió no hacer nada sustancial. El algoritmo siguió optimizándose para maximizar el tiempo de pantalla, no para proteger la salud mental.
La condena inicial es de tres millones de dólares. Una cifra que, para dos empresas que mueven decenas de miles de millones al año, es apenas un lunar en el balance. Pero los abogados saben que el dinero no es lo que estaba en juego. La división de la responsabilidad —70% para Meta, 30% para YouTube— es una primera señal. La segunda fase del juicio, que aún está abierta, decidirá si las compañías incurrieron además en fraude o malicia. Ahí los montos podrían multiplicarse. Pero más importante aún es lo que ya quedó escrito: por primera vez en Estados Unidos, un jurado declaró que el diseño mismo de una plataforma puede ser negligente.
Este no es un caso aislado. En Nuevo México, otro jurado había llegado meses antes a una conclusión similar, pero con una cifra mucho más contundente: 375 millones de dólares. En mayo, un juez evaluará si Meta debe además financiar programas públicos para reparar el daño social causado. Y en los despachos de 41 estados, las demandas colectivas presentadas contra la compañía en 2023 están empezando a moverse hacia los tribunales.
Lo que está ocurriendo tiene un eco que los abogados de la vieja escuela reconocen de inmediato. Es el mismo patrón de la industria tabacalera en los años noventa: décadas de negación de la evidencia, estudios internos que mostraban el daño, campañas de relaciones públicas para sembrar dudas, y finalmente, un aluvión de litigios que terminó transformando la regulación y la percepción social del producto. En aquel entonces se trataba de cáncer de pulmón. Ahora, se trata de cerebros de adolescentes secuestrados por algoritmos.
La madre de Kaley no se expresó durante el juicio como una activista ni como una abogada. Habló como alguien que había visto a su hija desaparecer dentro de una pantalla. Dijo algo que ningún dato económico ni informe corporativo puede refutar: «Creo que las redes, su adicción a las redes, han cambiado el modo en que funciona su cerebro».
Esa frase, dicha en voz baja desde un estrado, es probablemente más poderosa que cualquier argumento legal. Porque pone el dedo en la cuestión de fondo: durante más de una década, las grandes plataformas operaron como si la infancia fuera un recurso natural inagotable, un territorio sin leyes donde todo vale con tal de mantener el engagement. El modelo de negocio publicitario es implacable: más tiempo de pantalla, más datos, más anuncios. El bienestar del usuario nunca entró en la ecuación salvo como variable de relaciones públicas.
El veredicto no va a cerrar Instagram ni a apagar YouTube. Pero abrió una puerta que muchos daban por cerrada para siempre. La próxima vez que un ejecutivo de Silicon Valley hable de «conectar al mundo» y «construir comunidad», alguien podrá recordarle que un jurado de ciudadanos comunes ya dictaminó que esas palabras, en boca de quienes diseñan máquinas de enganche para niños, no son filantropía. Son evidencia.
Kaley G. M. recibirá su indemnización. Pero lo que quedará de este juicio no será el dinero. Será la certeza de que, por primera vez, el sistema judicial dijo que el cerebro de un menor no puede ser tratado como una frontera de monetización sin consecuencias. Y que cuando una empresa decide hacerlo, hay herramientas para llamarla a responder.
La madre de Kaley, al salir del tribunal, no hizo declaraciones grandilocuentes. Solo tomó del brazo a su hija y caminó hacia la salida. Detrás de ellas, los abogados de Meta ya anunciaban que apelarían. Pero en la sala vacía, mientras se apagaban las luces, quedó flotando la imagen de esos nueve ciudadanos que durante una semana escucharon, deliberaron y finalmente escribieron en un formulario lo que millones de padres ven en sus casas cada noche: esto no fue un accidente. Fue un diseño. Y ya es hora de que tenga precio.













