Что такое истина?

Единственными безусловными истинами являются тавтологии: например, «роза — это роза». Но они ни о чём нам не говорят. Для многих религий истина — это то, что написано в их священных книгах. Однако таких книг слишком много, и на протяжении многих столетий слово Божье интерпретируют по собственному усмотрению и от его имени продолжают развязывать войны, которые служат не идеалам, а интересам отдельных стран, компаний или личной выгоде.

Дэвид Томсон утверждает, что власть СМИ всегда опирается на ограниченность людей. Это не новость: перед экономической и финансовой мощью стоит медиавласть — идеологический инструмент глобального капитализма.

Кроме того, сформировался «военный журналистский подход», вызывающий так называемую «усталость от сочувствия», которая возникает из-за переизбытка плохих новостей, вынуждающих людей искать какое-то отвлечение от этой тревожной реальности.

Искусственный интеллект (ИИ) уже изменил способы нашего общения, мышление и образ жизни. По мере того как ИИ становится частью нашей повседневной жизни (даже если мы этого не осознаем), его пагубное влияние на правду и свободу вызывает все большее беспокойство. ИИ способен создавать ложный и, что особенно важно, манипулятивный контент, что создает серьезные риски для восприятия реальности и политики.

Алан Тьюринг в своей статье «Вычислительная техника и интеллект» задался вопросом: «Могут ли машины думать?» Спустя семьдесят пять лет многие ответили бы «да»: сегодня компьютеры решают задачи, облегчают исследования и даже создают изображения в сложных художественных стилях. Появление ChatGPT, разработанного OpenAI в 2022 году, удивило весь мир: футуристическая мечта из фильма «2001: Космическая одиссея» оказалась воплощенной в реальность.

Вы еще помните кто такие журналисты?

ИИ может вытеснить нас в создании и распространении контента (ему не нужны люди), что предвещает настоящий информационный кризис. Это не нейтральный инструмент: он может формировать наши убеждения и ценности, подрывая нашу способность различать правду. Прощай, информация? Прощайте, журналисты? Прощай, истина?

В конце 1940-х Джордж Оруэлл в книге «1984» ввёл концепцию «новояза» — искусственного языка, созданного Партией (политической системой, контролирующей всё через наблюдение, манипуляцию и репрессии), чтобы ограничить свободу мышления. С помощью новояза стремились постепенно сокращать словарный запас, устраняя слова.

А вместе с ними уходили и неудобные идеи. Например, если нет слова «свобода», о ней невозможно ни думать, ни говорить. Оруэлл писал: «Цель новояза заключалась не в расширении, а в сужении мышления; это достигалось уменьшением числа доступных слов» Ему было ясно, что контролировать язык — значит контролировать мысли.

Журналист Жорди Перес Коломе рассказывает: Стейн-Эрик Солберг, 56-летний мужчина, живший в доме стоимостью более двух миллионов евро под Нью-Йорком, в августе убил свою 83-летнюю мать и покончил с собой. После успешной карьеры в технологических гигантах вроде Netscape и Yahoo, брака и двух детей, Солберг вернулся жить к матери после развода в 2018 году.

Он страдал алкоголизмом, стал параноиком и был уверен, что за ним следят. За несколько лет потерял подруг, друзей детства и контакты с соседями. Остался только один человек, который его слушал. Соэльберг называл его «Бобби Зенит»… но на самом деле это был ChatGPT.

Спустя десятилетия это предостережение Джорджа Оруэлла, кажется, воплощается в жизнь в виде искусственного интеллекта, который стал новой гонкой, в которой стремятся победить не только технологические компании, но и самые влиятельные правительства мира.

Но действительно ли машины думают? Нет. «Искусственный интеллект» — это не сознательное или мыслящее существо, а набор математических алгоритмов, которые преобразуют слова в векторы, комбинируют их в матрицы и вычисляют вероятности. Когда пользователь вводит текст, система выполняет математические операции между матрицей A (представляющей ввод пользователя) и матрицей B (содержащей информацию, на которой она была обучена).

В результате этого взаимодействия возникает новая матрица C, вероятности которой определяют, какой ответ будет представлен. Другими словами, мышление исходит от тех, кто программирует эти системы, а не от самих машин, как многие считают.

Искусство манипуляции

Искусственный интеллект превратился в мощный инструмент для формирования нарративов, влияния на общественное мнение и укрепления тоталитарных проектов, а также в структуру, которую ни одно правительство в мире не стремится (и не может) регулировать. Но раздаются громкие тревожные сигналы: творчество, свобода мысли и идеологическое воспитание находятся под угрозой. Джордж Оруэлл предупреждал нас в своих произведениях, что ограничение языка — это ограничение мысли.

Также верно и то, что ИИ может стать опасным не потому, что обретает сознание и захочет уничтожить человечество, а потому, что он облегчает манипулирование информацией, и именно поэтому правительства и самые могущественные корпорации вкладывают огромные суммы в разработку и контроль этих программ.

Исследовательский центр Pew предупреждает, что внедрение искусственного интеллекта в поисковые системы значительно снижает количество переходов по веб-ссылкам. Google, например, показывает в качестве первого результата сводку, созданную искусственным интеллектом, что не позволяет пользователям напрямую посещать исходные сайты. Это изменение означает сокращение доходов, что отразится на зарплатах журналистов, исследователей и создателей контента, которые поддерживают информационное многообразие.

Если исчезнут сайты, ИИ будет обучаться только на данных, которые дают разработчики. Это ведёт к опасной централизации информации и манипуляции общественным мнением в интересах тех, кто платит больше.

В июле 2025 года премьер-министр Израиля Биньямин Нетаньяху подписал соглашение с Google на сумму 45 миллионов долларов с целью распространения официальных сообщений и смягчения гуманитарного кризиса в Газе. Учитывая, что Google владеет Gemini, вторым по популярности ИИ в мире, вызывает беспокойство то, что данные, которыми оперирует данная система, могут быть искажены в пользу политических интересов держателей этого контракта, которые скрывают творящийся геноцид.

Сегодня новояз может принимать форму невидимых алгоритмов, которые решают, что мы смотрим, что читаем и во что верим. Давайте защитим наше право на свободную и децентрализованную информацию. Давайте помнить, что ИИ не думает: он обрабатывает то, что мы ему даем. А за этим процессом стоят человеческие, экономические и политические интересы. Давайте не позволим этому объекту стать причиной смерти истины.

Галлюцинации

Недавние исследования объясняют, почему языковые модели генерируют ложные данные и какие риски это влечет за собой. Этот технологический взлет сопровождает тревожное явление: так называемые галлюцинации — ответы, не соответствующие проверяемым фактам, но при этом подаваемые как достоверные.

Проблема заключается в том, что машина не различает правду и правдоподобность. Языковые модели были разработаны не для того, чтобы говорить правду, а для того, чтобы предсказывать следующее слово в последовательности. То есть их обучают звучать убедительно, но не обязательно быть точными.

Исследователи, такие как Цзивэй Цзи, определяют это как несоответствие между целью обучения и ожиданиями пользователя: мы ищем достоверную информацию, а получаем то, что звучит убедительно, даже если это неверно.

Около 70 % людей принимают информацию такой, какая она есть, не подвергая её сомнению и не проверяя. Семеро из десяти верят, что то, что говорит нам машина, является правдой, без сомнений, не обращаясь к другим источникам. Если к этому добавить капитализм, риск становится ещё более серьёзным. Реальность превращается в товар: её можно купить, оптимизировать и продать тому, кто больше заплатит.

Тот, у кого есть деньги, будет определять, что считать истиной. И эти 70 % населения будут принимать её — как в буквальном, так и в символическом смысле. Мы уже видим это в политике. И что дальше? Когда реальность выставляется на аукцион, результатом становится уже не знание, а манипуляция в промышленных масштабах.

Наш словарь изменился, говорит Джейсон Снейдер. Например, цензура раньше была подавлением со стороны государства. Сегодня он используется для всего: от модерации контента до отклонения запроса ИИ-моделью. Нейтральность — это слово, которое используется системами, алгоритмы которых выбирают для нас источники информации. Технология AEO делает эту идею ещё менее убедительной: «нейтральный» ответ возникает не сам по себе — он сконструирован.

ИИ

Генеративный ИИ обещает многое, но есть серьёзная проблема: он может выдумывать факты с поразительной уверенностью. Методы вроде SelfCheckGPT предлагают, чтобы модель проверяла саму себя: задают один и тот же вопрос несколько раз и сравнивают ответы.

Если обнаруживаются противоречия, скорее всего, речь идет о галлюцинации. Этот подход не требует доступа к внешним базам данных, что делает его привлекательным для систем, которые должны давать ответы в режиме реального времени. Ответы, сгенерированные искусственным интеллектом, больше не конкурируют с источниками: они их заменяют. Без контекста и четких ссылок модели сами выбирают, что сказать, как это сказать и о чем промолчать. В таком замалчивании правда начинает размываться.

В свою очередь, «галлюцинация» — это название способности крупных языковых моделей незаметно генерировать вымысел. Но они делают это через те же каналы, что и журналистика, с той же долей правдоподобности. И правда становится лишь восприятием: если что-то кажется достаточно реальным или если достаточное количество людей это отрицает, оно может занять то же место, что и факт.

Напряжение между ИИ и демократией

В 13 исследованиях с более чем 8 000 участников учёные изучали этические риски делегирования задач машинам. В исследовании также участвовали Университет Дуйсбурга-Эссена и Тулузская школа экономики.

С определенной точки зрения, ИИ и демократия находятся в противоречии, особенно если учесть, что используемые алгоритмы разработаны с целью завоевать и/или подорвать доверие к общественным проектам. Сейчас, в эпоху постправды и ИИ, государственный и частный секторы используют такие инструменты, как чат-боты или Chat GPT, для утверждения своих предвзятых интересов. Эпоха постправды возникает рука об руку с генеративным ИИ.

Такое сочетание порождает то, что Льюис Мамфорд ещё в 1967 году называл «мегамашиной» — тотемным, иерархическим и негибким обществом. Эпоха постправды — это не момент, когда ложь кажется такой же правдоподобной, как сама истина. Это время, когда правда перестаёт иметь значение, потому что она уже не одна и не единственная — она становится множественной и подстраивающейся под обстоятельства. Симуляция может обладать огромной силой, если рассматривать ее в точки зрения слияния возможностей этой технологии с политической и экономической властью.

Давайте проясним: интеллектуальная симуляция обладает непревзойденной политической и экономической эффективностью. Достаточно ли одной серии чат-ботов, чтобы изменить мнения и даже ценности?

Концепция «deepfake» раскрывает способность лгать и закат политической корректности. Ускоренное распространение ложного контента с высокой степенью правдоподобия контрастирует с медленной разработкой инструментов для его обнаружения (в сочетании с отсутствием прав на изображения). Опасность заключается в том, что мы снова и снова сталкиваемся с тестом Алана Тьюринга, то есть с вызовом со стороны обманчивой машины, которая создает или генерирует неразличимые образы и голоса, внушает скрытые мотивы, скрывает свою первоначальную цель и вызывает тревожные эмоции, таким как стыд, жалость или страх.

Помимо машины Тьюринга существует склонность верить в нечто высшее, покорно подчиняться авторитету, беспрекословно следовать за ним, при условии, что эмоциональные обстоятельства благоприятны. Это изменяет смысл и/или подрывает доверие через фальшивые, но наделенные эмоциональной силой образы или выражения. Этим и пользуется цифровой популизм, который продвигает восхищение фигурами, созданными в социальных сетях, или массовыми поддельными взаимодействиями, которые служат политическим интересам, которые трудно проверить.

Сегодня мы наблюдаем эпоху, когда размываются границы между вымыслом и реальностью, критическое мышление и чувствительность подвергаются испытанию. Путей к восстановлению истины пока нет, ее продолжают «убивать» день за днём.

 

Арам Ааронян
— магистр интеграции, журналист и преподаватель из Уругвая, основатель телеканала «Telesur», директор Обсерватории коммуникаций и демократии, президент Фонда латиноамериканской интеграции.