За два года число дипфейков в рунете выросло в 26 раз

13 апреля 2026 14:24

Согласно данным АНО «Диалог Регионы», в 2023 году было зафиксировано 24 уникальных дипфейка, в 2024-м — 84, а в 2025 году показатель достиг 627. Это означает рост в 7,5 раза за год и в 26 раз за два года. Динамика сохраняется: с начала 2026 года выявлено уже более 140 дипфейков, что вдвое превышает показатели аналогичного периода прошлого года. Речь о поддельных видео, направленных на намеренное введение в заблуждение граждан и несущих социальную опасность.

Статистику озвучил начальник управления по противодействию недостоверной информации АНО «Диалог Регионы» Сергей Маклаков 13 апреля на форуме «ИИ: режим доверия», организованном «Кибердомом». В специальной сессии «Технологии детектирования и маркировки дипфейков: в чьих интересах создавать защиту против денежного и репутационного ущерба» также приняли участие заместитель министра цифрового развития, связи и массовых коммуникаций РФ Александр Шойтов; председатель Комитета Госдумы по информационной политике, информационным технологиям и связи Сергей Боярский; первый заместитель председателя IT-комитета Госдумы, председатель правления РОЦИТ Антон Горелкин; первый зампред Комитета Совета Федерации по конституционному законодательству и государственному строительству Артем Шейкин; управляющий директор MTS AI, генеральный директор VISIONLABS Дмитрий Марков, руководитель направления сопровождения работы с регуляторными инициативами, Яндекс Дамир Салихов и генеральный директор, SkCapital (группа ВЭБ.РФ) Владимир Сакович.  Модератором выступила заместитель генерального директора «Кибердома» Александра Шадюк.

Сегодня любой заметное событие становится поводом для создания дезинформационных кампаний вокруг него. Например, в период сильных снегопадов на Камчатке массово тиражировались дипфейки с занесенными снегом многоэтажными домами. Эти материалы гиперболизировали реальную обстановку и были призваны усилить негатив в отношении работы коммунальных служб. Аналогичные технологии используют для дестабилизации социально-экономической ситуации и дискредитации руководителей финансовых институтов. Часто злоумышленники запускают серийные кампании, публикуя от 5 до 10 сгенерированных роликов одновременно.

«Параллельно с этим растет и качество генерации. Если до второго полугодия 2025 года для создания дипфейка требовался качественный фото- или видеореференс, то современные модели позволяют получить реалистичное видео по текстовому запросу буквально за несколько минут. В результате обычные пользователи практически утратили способность визуально отличать сгенерированный контент от реального, потому что современные фейки уже практически неотличимы от реального контента — и в будущем эта граница исчезнет окончательно», — отметил Сергей Маклаков.

В этих условиях разработка систем автоматического распознавания становится ключевой задачей. Так, АНО «Диалог Регионы» создала и внедрила в работу систему «Зефир», которая объединяет пять нейросетевых моделей для выявления синтетического контента. Развитие инструмента сегодня ведется совместно с крупнейшими российскими технологическими компаниями.

Эксперт подчеркнул, что одних технологических решений и работы фактчекеров недостаточно. Необходима системная просветительская работа с пользователями Интернета. Нужно учитывать особенности современного медиапотребления: внимание зрителя захватывается за считанные секунды, а глубокий анализ контента становится всё менее распространённым.

«Проблема приобрела такие масштабы, что требует комплексного подхода: помимо детектирующих систем и проверки данных, нужны меры по повышению медиаграмотности. Образовательные программы должны развивать критическое мышление и навыки верификации, учитывать разный уровень подготовки аудитории и оперативно обновляться в ответ на появление новых генеративных моделей. Именно эти навыки позволяют человеку не поддаваться обману даже при первичном восприятии убедительного, но ложного контента», — резюмировал Сергей Маклаков.

Ознакомиться с материалами для развития медиаграмотности и проверки информации можно на ресурсах Международной ассоциации по фактчекингу Global Fact-Checking Network (GFCN) и проекта «Лапша Медиа».

Фото АНО «Диалог Регионы»: https://disk.yandex.ru/d/vzJxtY0U-RQluQ 

IR

Добавить комментарий

Your email address will not be published.

Latest from Актуальное

Эксперты назвали нейросети серьезным оружием для манипуляции детьми

Основой защиты детей от киберугроз является системное обучение критическому мышлению. Об этом заявил начальник управления по противодействию недостоверной информации АНО «Диалог Регионы» Сергей Маклаков 7