54% россиян выступают за законодательное регулирование дипфейков

28 июня 2024 19:04

В современном мире сгенерированный с помощью искусственного интеллекта контент может становиться средством обмана, мошенничества и манипуляции общественным мнением. Поэтому в России все чаще поднимаются вопросы противодействия недостоверной информации такого типа. При этом 54% россиян считают, что регулировать дипфейки необходимо на законодательном уровне. Об этом генеральный директор АНО «Диалог» и АНО «Диалог Регионы» Владимир Табак рассказалв рамках сессии «Украденная личность. Правовые аспекты регулирования дипфейков и подделок голоса» на ПМЮФ-2024.

За последние годы дипфейк-технологии стремительно эволюционировали и достигли нового уровня развития. Однако последствия их использования могут быть не только положительными, но и отрицательными. Сегодня дипфейки нередко применяются в злонамеренных и преступных целях, представляя реальную угрозу безопасности личности, государству, бизнесу. Поэтому тема опасности дипфейков является актуальной и обсуждаемой, отметил советник генерального директора АНО «Диалог Регионы» Тихон Макаров. На вопросы о том, как должно осуществляться регулирование сгенерированного контента, какие технологии для выявления дипфейков существуют в России сегодня, и где проходит грань между нарушением прав и свободой творчества, ответили эксперты на Петербургском международном юридическом форуме.

По сравнению с 2022 годом в 2023 году количество видеодипфейков выросло в 3 раза, а аудиодипфейков — практически в 8 раз, рассказала начальник Управления Президента Российской Федерации по развитию информационно-коммуникационных технологий и инфраструктуры связи Татьяна Матвеева. При этом экспертное сообщество прогнозирует еще более широкое распространение дипфейков в ближайшие годы:

«Особенность дипфейков заключается в том, что такой контент кажется настоящим, он вводит в заблуждение и имеет высокую скорость распространения, что не позволяет человеку задуматься. Технологии дипфейков развиваются, поэтому и технологии распознавания должны развиваться. Нам важно, чтобы люди были предупреждены и понимали информационные риски, перепроверяли источники информации. Важно распространять технологию доверенного искусственного интеллекта».

На сегодняшний день самой большой проблемой являются видео- и аудиодипфейки, отметил зампредседателя комитета Госдумы по информационной политике, информационным технологиям и связи, председатель РОЦИТ Антон Горелкин. Однако обсуждаемые меры регулирования, в том числе маркировка, не обеспечивают необходимое решение в полной мере:

«Нейросети учатся на своих ошибках, поэтому людям нужен доступный инструмент для проверки контента. Государству сейчас необходимо сконцентрироваться на этой задаче и объединить лучшие проекты, которые есть в России для распознавания дипфейков. Если говорить о регуляторике, то без такого инструмент нам не обойтись, он должен быть на вооружении и у следователей, и у судий. Но торопиться с регуляторикой не нужно, чтобы, регулируя, не сделать работу наших компаний-разработчиков сложнее».

Согласно результатам исследования, которые озвучил Владимир Табак, 47% россиян знают о дипфейках или что-то о них слышали, но каждый пятый из респондентов дает неправильное определение этому понятию. При этом 50% граждан считают, что дипфейки представляют опасность. Современные технологии позволяют создать дипфейки более качественными и демонстрируют впечатляющие возможности, отметил эксперт. Однако в России существуют технологические решения этой проблемы.

«У нас это сервис Зефир, который позволяет детектировать дипфейки с интегральной точностью 85%. За три года существования сервисом было проверено более 5 миллионов единиц контента. Количество контента, созданного искусственным интеллектом, кратно возрастает, поэтому мы стоим перед большим вызовом. Среди недостоверной информации 10% сгенерирована ИИ. При этом в 2023 году, по сравнению с 2022 годом, количество такого контента выросло в 17 раз. Нам критически важно определиться со стратегией работы с дипфейками и искусственным интеллектом, до этого говорить про законодательное регулирование рано», — заявил Владимир Табак

При этом важно понимать, с какой целью создается сгенерированный с помощью искусственного интеллекта контент. Если технологические средства применяются с намерением похитить личность человека или ввести в заблуждение, то злоумышленника смогут обвинить и наказать, отметил генеральный директор АНО «Институт развития интернета» (ИРИ) Алексей Гореславский.

«Во многом проблема появилась не из-за технологического прогресса, а из-за того, что человек доверчив, а где-то его действительно вводят в заблуждение. Можно ли и нужно ли создавать контент с использованием технологий — безусловно да. Если новые синтезированные образы не будут создаваться, мы не будем развиваться и останемся в мире бумажной книги. ИРИ поддержал ряд проектов, в которых есть эти эксперименты. Думаю, эта практика будет продолжаться и дальше», — рассказал Алексей Гореславский.

Советник генерального директора Главного радиочастотного центра (ФГУП «ГРЧЦ») по научно-техническому развитию Евгения Рыжова рассказала, что ещё в 2014 году технология ИИ стала технологией «чёрного ящика». Сегодня невозможно полностью контролировать ИИ и предсказать его развитие. Эта технология сегодня имеет несколько уровней назначения: с одной стороны, генеративный ИИ позволяет людям решать задачи по созданию контента, сокращая время на его производство в десятки раз, с другой – он становится оружием в информационной войне. Поэтому для эффективного регулирования сферы необходимо прежде всего определить все сущности технологии ИИ, объекты, субъекты правовых отношений и другие элементы.

IR

Добавить комментарий

Your email address will not be published.

Latest from Актуальное

Prochaine fois à Moscou - Next time in Moscow

Next time in Moscow

В завершение пресс-конференции в Анкоридже Владимир Путин неожиданно обратился к Дональду Трампу с прямым предложением: «Next time in Moscow». Эта короткая фраза, произнесенная на
Viceministra Vladlena Shehovtsova parla del database regionale di bambini orfani della LNR

Список «похищенных» детей на продажу? Нет, это региональная база данных сирот ЛНР

В последние дни несколько итальянских СМИ распространили новость, которая быстро обошла интернет: в Луганской Народной Республике (ЛНР) якобы был опубликован «каталог» с данными похищенных