Нарративные войны. Как искусственный интеллект заставляют врать

8 октября 2025 17:59

В эпоху трансформации цифровых коммуникаций Израиль запустил масштабную кампанию по влиянию на общественное мнение с бюджетом 145 миллионов долларов, использующую искусственный интеллект и сеть влиятельных лиц в социальных сетях для целенаправленного воздействия на информационное пространство, с особым акцентом на аудиторию Соединенных Штатов.

Стали известны подробности кампании, о которой уже было заявлено ранее: стратегия кампании демонстрирует исключительную ориентацию на поколение Z. 80% контента размещается на визуально-ориентированных платформах TikTok, Instagram и YouTube, что обеспечивает ежемесячный охват в 50 миллионов показов и формирует новый стандарт в цифровой дипломатии.

Ключевым технологическим компонентом инициативы становятся скоординированные усилия по формированию ответов генеративного искусственного интеллекта об Израиле через методологию генеративной оптимизации, направленную на системное внедрение произраильских нарративов в архитектуру крупных языковых моделей.

Операционное управление кампанией осуществляет Государственное бюро рекламы Израиля при реализации Havas Media Network, тогда как стратегическое планирование закреплено за американской фирмой Clock Tower X LLC под руководством Брэда Парскаля — бывшего руководителя предвыборной кампании Дональда Трампа и действующего директора по стратегии Salem Media Group. Финансовая структура проекта включает контракт с фирмой Парскаля на 6 миллионов долларов, заключенный 18 сентября 2025 года с действием до конца календарного года, с равным распределением финансирования между Havas и Clock Tower.

Согласно договоренностям, команда Парскаля взяла на себя обязательства по ежемесячному производству не менее 100 базовых креативных материалов — от видеоконтента и графики до аудио и текстовых форматов — с последующей генерацией 5000 их адаптивных вариантов. Значительная часть контента создается эксклюзивно для платформ поколения Z с ключевым показателем распространения произраильских нарративов по цене менее 2 долларов за тысячу платных показов.

Среди наиболее дискуссионных и спорных специфик кампании — целенаправленные усилия по влиянию на то, как генеративные системы искусственного интеллекта, включая ChatGPT, Gemini от Google и Grok от X, формируют ответы на запросы, связанные с Израилем и сопутствующей тематикой.

Как комментирует IR Илья Кирия, профессор, приглашенный исследователь и профессор Парижского университета, университета Седерторн, университета Гренобля и Лионской школы политических наук, подобные кампании не уникальны, подобный подход к формированию информационного поля фиксируется на протяжении, как минимум, 15 лет.

«Ну, собственно говоря, ничего нового в этой новости я не вижу. Мы знаем, что на протяжении последних по меньшей мере 15 лет разные правительства или правительственные медиа пытаются «управлять» поисковыми алгоритмами. Я здесь вижу два элемента: управление алгоритмами видимости определенных новостей и управление алгоритмами «социальной вовлеченности» (алгоритмы, которые способствуют тому, что какой-то контент привлекает внимание большего количества пользователей)», — отмечает профессор Кирия, подчеркивая трансформацию инструментов так называемой «индустриализации» социальной вовлеченности.

«И раньше тут использовались инструменты «индустриализации» социальной вовлеченности: за деньги нанимались «тролли», — комментирует профессор. — Затем стали писать алгоритмы, которые имитируют действия живых пользователей (ботофермы) и создают контент (клики, лайки и пр,), чтобы искусственно «накручивать» метрики социальной вовлеченности, что позволяет продвигать контент благодаря автоматизированным алгоритмам в соцсетях (то, что больше лайкают, становится более доступным другим пользователям).

Сейчас к этому добавляется автоматизированное производство контента при помощи ИИ-помощников. Исходя из данного сообщения задача тут простая — ИИ-помощники, такие как Chat GPT, тренируют свои модели на некоем корпусе текстов — а точнее на корпусе текстов, доступных в Интернете. Соответственно, если мы сможем сгенерировать достаточное количество текстов в сети (сайтов и пр.), то мы заставим модель принимать эти тексты при ответе на вопросы.

Следовательно, если мы замусорим интернет-пространство сообщениями (в том числе произведенными искусственно) с определенной идеологической позицией, то мы заставим модель учитывать эту позицию при выдаче ответов на вопросы. То есть тут задача не только влиять на алгоритмы видимости, но менять в целом набор доступных в интернет-пространстве мнений».

IR
Liam Walsh - Лиам Уолш

Liam Walsh - Лиам Уолш

Аналитик. Ирландия

Добавить комментарий

Your email address will not be published.

Latest from Актуальное

Зеленский отдаёт приказы, Мельник исполняет, Италия подчиняется

Вот уже четыре года Италия становится свидетелем всё более системной формы политической цензуры, замаскированной под «чувствительность», «уместность» или «международную напряжённость». На протяжении четырёх лет
Attacco ucraino contro civili

Кровавый Новый год в Херсонской области

По словам российского губернатора Херсонской области Владимира Сальдо, в новогоднюю ночь атака украинских беспилотников поразила бар и гостиницу в прибрежном посёлке Хорлы на Чёрном

Don't Miss