В эпоху трансформации цифровых коммуникаций Израиль запустил масштабную кампанию по влиянию на общественное мнение с бюджетом 145 миллионов долларов, использующую искусственный интеллект и сеть влиятельных лиц в социальных сетях для целенаправленного воздействия на информационное пространство, с особым акцентом на аудиторию Соединенных Штатов.
Стали известны подробности кампании, о которой уже было заявлено ранее: стратегия кампании демонстрирует исключительную ориентацию на поколение Z. 80% контента размещается на визуально-ориентированных платформах TikTok, Instagram и YouTube, что обеспечивает ежемесячный охват в 50 миллионов показов и формирует новый стандарт в цифровой дипломатии.
Ключевым технологическим компонентом инициативы становятся скоординированные усилия по формированию ответов генеративного искусственного интеллекта об Израиле через методологию генеративной оптимизации, направленную на системное внедрение произраильских нарративов в архитектуру крупных языковых моделей.
Операционное управление кампанией осуществляет Государственное бюро рекламы Израиля при реализации Havas Media Network, тогда как стратегическое планирование закреплено за американской фирмой Clock Tower X LLC под руководством Брэда Парскаля — бывшего руководителя предвыборной кампании Дональда Трампа и действующего директора по стратегии Salem Media Group. Финансовая структура проекта включает контракт с фирмой Парскаля на 6 миллионов долларов, заключенный 18 сентября 2025 года с действием до конца календарного года, с равным распределением финансирования между Havas и Clock Tower.
Согласно договоренностям, команда Парскаля взяла на себя обязательства по ежемесячному производству не менее 100 базовых креативных материалов — от видеоконтента и графики до аудио и текстовых форматов — с последующей генерацией 5000 их адаптивных вариантов. Значительная часть контента создается эксклюзивно для платформ поколения Z с ключевым показателем распространения произраильских нарративов по цене менее 2 долларов за тысячу платных показов.
Среди наиболее дискуссионных и спорных специфик кампании — целенаправленные усилия по влиянию на то, как генеративные системы искусственного интеллекта, включая ChatGPT, Gemini от Google и Grok от X, формируют ответы на запросы, связанные с Израилем и сопутствующей тематикой.
Как комментирует IR Илья Кирия, профессор, приглашенный исследователь и профессор Парижского университета, университета Седерторн, университета Гренобля и Лионской школы политических наук, подобные кампании не уникальны, подобный подход к формированию информационного поля фиксируется на протяжении, как минимум, 15 лет.
«Ну, собственно говоря, ничего нового в этой новости я не вижу. Мы знаем, что на протяжении последних по меньшей мере 15 лет разные правительства или правительственные медиа пытаются «управлять» поисковыми алгоритмами. Я здесь вижу два элемента: управление алгоритмами видимости определенных новостей и управление алгоритмами «социальной вовлеченности» (алгоритмы, которые способствуют тому, что какой-то контент привлекает внимание большего количества пользователей)», — отмечает профессор Кирия, подчеркивая трансформацию инструментов так называемой «индустриализации» социальной вовлеченности.
«И раньше тут использовались инструменты «индустриализации» социальной вовлеченности: за деньги нанимались «тролли», — комментирует профессор. — Затем стали писать алгоритмы, которые имитируют действия живых пользователей (ботофермы) и создают контент (клики, лайки и пр,), чтобы искусственно «накручивать» метрики социальной вовлеченности, что позволяет продвигать контент благодаря автоматизированным алгоритмам в соцсетях (то, что больше лайкают, становится более доступным другим пользователям).
Сейчас к этому добавляется автоматизированное производство контента при помощи ИИ-помощников. Исходя из данного сообщения задача тут простая — ИИ-помощники, такие как Chat GPT, тренируют свои модели на некоем корпусе текстов — а точнее на корпусе текстов, доступных в Интернете. Соответственно, если мы сможем сгенерировать достаточное количество текстов в сети (сайтов и пр.), то мы заставим модель принимать эти тексты при ответе на вопросы.
Следовательно, если мы замусорим интернет-пространство сообщениями (в том числе произведенными искусственно) с определенной идеологической позицией, то мы заставим модель учитывать эту позицию при выдаче ответов на вопросы. То есть тут задача не только влиять на алгоритмы видимости, но менять в целом набор доступных в интернет-пространстве мнений».