¿Qué es la verdad?
Las únicas verdades incondicionales son la tautológicas (“una rosa es una rosa”, por ejemplo, pero no nos informan de nada. Para muchas religiones la verdad es la que está escrita en sus libros sagrados, pero hete aquí que ya son demasiados, a lo largo de los años y de los siglos, que interpretan a su manera y conveniencia la verdad-palabra de dios (o de Dios), y con ella siguen desatando guerras, que muchas veces sirven para beneficio de sus naciones y otras, las más, para beneficio propio y de sus financistas.
David Thomson insiste en que el poder de los medios siempre tiene que contar con el idiotismo de los sujetos. No es novedad: delante del poder económico y financiero está el poder mediático, aparato ideológico de la globalización capitalista.
Asimismo, se ha instalado un periodismo de guerra, la llamada fatiga de la simpatía, que nace con la superabundancia de malas noticias que obligan a las personas buscar alguna distracción a esa agobiante realidad mundial.
Hoy la inteligencia artificial (IA) ha transformado la forma en que nos comunicamos, pensamos e incluso vivimos. A medida que la IA se integra en nuestra vida del día a día (aun cuando no la hemos llamado), sus nocivos efectos sobre la verdad y la libertad se hacen cada vez más preocupantes. La IA puede crear contenido falso y sobre todo manipulador, lo que deja abiertos serios riesgos para la percepción de la realidad y la política.
Alan Turing, en su artículo “Computing Machinery and Intelligence”, se preguntó: “¿Pueden pensar las máquinas?”. Setenta y cinco años después muchos responderían que sí, las computadoras hoy resuelven dudas, facilitan investigaciones, e incluso crean imágenes con estilos artísticos complejos. La llegada de ChatGPT, desarrollada por OpenAI en 2022, sorprendió al mundo entero: el sueño futurista de 2001: odisea del espacio parecía haberse hecho realidad.
¿Se acuerdan de los periodistas?
La IA puede desplazarnos en la creación y distribución de contenido (no necesita a los humanos), lo que presagia una verdadera crisis de la información. No se trata de una herramienta neutral: puede moldear nuestras creencias y valores, bombardeando nuestra capacidad para discernir la verdad. ¿Adiós a la información, adiós a los periodistas, adiós a la verdad?
Al final de los años 1940, George Orwell, en su obra 1984, introdujo el concepto de “neolengua”, un idioma artificial diseñado por el Partido (sistema político que controla todo mediante vigilancia, manipulación y represión) para limitar la libertad de pensamiento. A través de la neolengua se buscaba reducir el vocabulario poco a poco, eliminar palabras.
Al suprimirlas se excluyen también ideas incómodas. Por ejemplo, si no existe la palabra libertad, tampoco se puede pensar ni hablar de ella. Orwell menciona: “El propósito de la neolengua no era ampliar, sino disminuir el alcance del pensamiento, y este objetivo se lograría reduciendo el número de palabras disponibles.” Tenía claro que controlar el lenguaje era controlar el pensamiento
Jordi Pérez Colomé narra que Stein-Erik Soelberg, un hombre de 56 años que vivía en una casa valorada en más de dos millones de euros cerca de Nueva York, mató en agosto a su madre, de 83 años, y se suicidó. Después de una vida de éxito en grandes empresas del sector tecnológico como Netscape y Yahoo, y un matrimonio con dos hijos, Soelberg había vuelto a vivir con su madre tras divorciarse en 2018.
Era alcohólico, y se volvió paranoico y creía que lo espiaban. En unos años perdió novias, amigos de la infancia y contactos con vecinos. Solo había alguien que le hacía caso. Soelberg le llamaba “Bobby Zenith”… pero en realidad era ChatGPT.
Décadas después, aquella advertencia de George Orwell parece cobrar vida con el rostro de la inteligencia artificial, que se ha convertido en la nueva carrera a ganar, no solo por las empresas tecnológicas, sino también por los gobiernos más poderosos del mundo. Las computadoras hoy resuelven dudas, facilitan investigaciones, e incluso crean imágenes con estilos artísticos complejos. La llegada de ChatGPT, desarrollada por OpenAI en 2022, sorprendió al mundo entero: el sueño futurista de 2001: odisea del espacio parecía haberse hecho realidad.
Pero, disculpe: ¿realmente las máquinas piensan? La “inteligencia artificial” no es una entidad consciente ni pensante, sino un conjunto de algoritmos estadísticos que transforman palabras en vectores, las combina en matrices y calcula probabilidades. Cuando el usuario introduce un texto, el sistema realiza operaciones matemáticas entre una matriz A (que representa la entrada del usuario), y una matriz B (que contiene la información con la que fue entrenado).
De esa interacción surge una nueva matriz C, cuyas probabilidades determinan cuál será la respuesta mostrada. En otras palabras, la inteligencia proviene de quienes programan estos sistemas, no de las máquinas mismas, como muchos creen y divulgan.
El arte de la manipulación
La inteligencia artificial se ha convertido en una herramienta poderosa para moldear narrativas, influir en la opinión pública, y fortalecer proyectos totalitarios y una entidad que ningún gobierno en el mundo pretende (ni puede) regular. Pero está sonando fuerte la alarma: la creatividad, la libertad de pensamiento y la formación ideológica están en riesgo. George Orwell nos advirtió, desde la ficción, que limitar el lenguaje es limitar el pensamiento.
También es cierto que las IA pueden volverse peligrosas, no porque desarrollen conciencia y decidan eliminar a la humanidad, sino porque facilitan la manipulación de la información y es por ello que los gobiernos y las corporaciones más poderosas invierten enormes sumas para desarrollar y controlar estos programas.
Pew Research Center advierte que la implementación de IA en motores de búsqueda está reduciendo significativamente los clics en los enlaces web. Google, por ejemplo, muestra como primer resultado un resumen generado por IA, lo que evita que los usuarios visiten directamente los sitios de origen. Este cambio implica menos ingresos, mismos que se verán reflejados en las nóminas de periodistas, investigadores y creadores de contenido que sustentan la pluralidad informativa.
Si los sitios web desaparecen, las IA solo podrán entrenarse con información proporcionada por sus programadores, lo que conduciría a una peligrosa centralización de la información y en una posible manipulación del discurso público a conveniencia del mejor postor.
En julio de 2025, el primer ministro israelí Benjamín Netanyahu firmó un acuerdo de 45 millones de dólares con Google, con el objetivo de amplificar mensajes oficiales y minimizar la crisis humanitaria en Gaza. Dado que Google es dueña de Gemini, la segunda IA más utilizada en el mundo, resulta preocupante que los datos con los que se entrena este modelo puedan estar sesgados a favor de los intereses políticos de ese contrato, que esconde el genocidio.
Hoy, la neolengua podría tomar la forma de algoritmos invisibles que deciden qué vemos, qué leemos y en qué creemos. Defendamos nuestro derecho a una información libre y descentralizada. Recordemos que la IA no piensa: procesa lo que le damos. Y detrás de ese proceso hay intereses humanos, económicos y políticos. No dejemos que este objeto sea el causante de la muerte de la verdad.
Alucinaciones
Investigaciones recientes explican por qué los modelos de lenguaje fabrican datos falsos y qué riesgos conlleva. un fenómeno inquietante acompaña a este despegue tecnológico: las llamadas alucinaciones, respuestas que no corresponden a hechos verificables y que, sin embargo, son expresadas con total confianza.
El problema es que la máquina no distingue entre lo cierto y lo plausible. Los modelos de lenguaje no fueron diseñados para decir la verdad, sino para predecir la palabra siguiente en una secuencia. Es decir, se entrenan para sonar convincentes, no necesariamente para ser precisos.
Investigadores como Ziwei Ji lo definen como un desajuste entre el objetivo del entrenamiento y la expectativa del usuario: buscamos información confiable y recibimos algo que suena bien, aunque sea erróneo
Cerca del 70 % de las personas acepta la información tal como la recibe, sin cuestionarla ni verificarla. Siete de cada diez creemos que lo que la máquina nos diga es cierto, sin dudas, sin obstáculos, sin consultar otras fuentes. Si a eso le sumamos el capitalismo, el riesgo se vuelve todavía más grave. La realidad se transforma en un producto: se puede comprar, optimizar y vender al mejor postor.
Quien tenga el dinero para moldear la respuesta va a definir la verdad. Y ese 70 % de la población la va a aceptar, tanto en sentido literal como simbólico. Ya lo vemos en política. ¿Y cómo sigue eso? Cuando la realidad entra en subasta, el resultado no es conocimiento. Es manipulación a escala industrial.
Nuestro vocabulario se vino abajo, dice Jason Sneyder. Por ejemplo, Censura solía ser la supresión por parte del Estado. Hoy se usa para todo: desde la moderación de contenido hasta cuando un modelo de IA rechaza una solicitud. Neutralidad es una palabra que reclaman sistemas cuyos algoritmos ya eligen activamente nuestras fuentes. La AEO vuelve esa idea aún menos creíble: la respuesta «neutral» no es espontánea, está diseñada.
La IA
La promesa de la IA generativa convive con un problema incómodo: puede inventar hechos con una seguridad pasmosa. Otros métodos, como SelfCheckGPT, proponen que el propio modelo se audite: se le piden varias respuestas a la misma pregunta y luego se comparan entre sí.
Si aparecen contradicciones internas, es probable que se trate de una alucinación. Este enfoque no necesita acceso a bases externas, lo que lo hace atractivo para sistemas que deben dar respuestas en tiempo real. Las respuestas generadas por inteligencia artificial ya no compiten con fuentes: las reemplazan. Sin contexto ni atribuciones claras, los modelos eligen qué decir, cómo decirlo y qué callar. En ese recorte silencioso, la verdad empieza a difuminarse.
Por su parte, Alucinación es como se nombra la capacidad de los grandes modelos de lenguaje para producir ficción con fluidez. Pero lo hacen a través de los mismos canales que el periodismo, con la misma apariencia de verosimilitud. Y verdad se vuelve apenas una percepción: si algo parece lo bastante real, o si lo niega suficiente gente, puede ocupar el mismo lugar que un hecho.
IA y democracia, en tensión
En 13 estudios con más de 8.000 participantes, los investigadores examinaron los riesgos éticos de la delegación de tareas a máquinas. En la investigación también participaron la Universidad de Duisburg-Essen y la Toulouse School of Economics.
Desde una cierta perspectiva, la IA y la democracia están en tensión, sobre todo cuando se considera que los algoritmos utilizados están diseñados con el fin de ganar y/o socavar la confianza en proyectos comunitarios. Ahora, en la era de la posverdad e IA, es cuando el sector público y privado echan mano de herramientas como el Chatbot o el Chat GPT con el fin de validar sus intereses sesgados. la era de la posverdad surge de la mano de la IA-generativa.
Un maridaje que engendra a la “megamáquina” como sociedad totémica, jerárquica e inflexible, de la que hablaba desde 1967 Lewis Mumford. La era de la posverdad no es el momento en que la mentira parece tan verdadera como la verdad misma, sino el tiempo en que la verdad ya no importa porque ésta no es una y única, sino múltiple y acomodaticia. La simulación puede ser muy poderosa si se analiza la convergencia entre el poder de esta tecnología y el poder político y económico.
Estemos claros, la simulación inteligente tiene una efectividad política y económica sin igual. ¿¿Basta una serie de ChatsBots para modificar opiniones e incluso valores? La IA y la democracia están en tensión, sobre todo cuando se considera que los algoritmos utilizados están diseñados con el fin de ganar y/o socavar la confianza en proyectos comunitarios. Ahora se echa mano de herramientas como el Chatbot o el Chat GPT con el fin de validar sus intereses sesgados.
El concepto deepfake (gran impostura) revela la capacidad de mentir y el ocaso de la rectitud política. La propagación acelerada de contenidos falsos y de alta verosimilitud contrasta con la lentitud en el desarrollo de herramientas para detectarlos (sumado a la ausencia de derechos sobre imágenes). El peligro es encontrarse una y otra vez con la prueba de Alan Turing, o sea, con el desafío de la máquina embaucadora que crea o genera imágenes y voces indistinguibles, infunde motivaciones ocultas, esconde su propósito original y apela a emociones recelosas, como la vergüenza, lástima o el miedo.
Más allá de la máquina de Turing, existe la inclinación a creer en algo superior, en someterse dócilmente a una autoridad, a obedecer sin cuestionar, siempre y cuando las circunstancias emocionales sean las indicadas. Esto altera el sentido y/o socaba la confianza a través de figuras o expresiones ficticias, pero dotadas de poder emocional. De eso se aprovecha el populismo digital, que promueve la admiración por figuras creadas en las redes sociales o las interacciones masivas falsas que favorecen intereses políticos difíciles de verificar.
Hoy asistimos a un momento donde se multiplican los desafíos a la sensibilidad y pensamiento crítico, desaparecen los límites entre ficción y realidad. Y no aparecen guías y/o soluciones para volver a la verdad, olvidar que sigue siendo asesinada un día sí… y otro también.













