Мажилисмен предупредил об обратной стороне технического прогресса

Мажилисмен предупредил об обратной стороне технического прогресса
Иллюстрация: AI

Опасность представляют технологии дипфейков, передаёт корреспондент @Pavlodarnews.kz со ссылкой на телеграм-канал «ҚР Парламенті Мәжілісі».

Член фракции партии «AMANAT» Сергей Пономарев направил депутатский запрос заместителю Премьер-министра – министру искусственного интеллекта и цифрового развития Жаслану Мадиеву, министру внутренних дел Ержану Саденову касательно дипфейков. 

Цифровизация и технологический прогресс сегодня не просто направление, а новая национальная идея Казахстана. Однако технологии, которые могут использоваться не во благо, а во вред. Одна из них – технология дипфейков, то есть создание при помощи искусственного интеллекта поддельных изображений, аудио- и видеоматериалов с участием реальных людей.

– По данным Всемирного экономического форума, уже второй год подряд дезинформация и распространение ложных сведений называются среди главных краткосрочных рисков для мировой стабильности. Я лично стал жертвой такой технологии, моё изображение и голос были полностью подделаны, использованы в ролике, где от моего имени просили деньги. Смонтировано настолько искусно, что даже близкие не сразу поняли подделку. Если будет создан и распространён дипфейк с участием руководителя государства или публичного лица, с ложными призывами или фальшивыми заявлениями, последствия могут быть катастрофическими. Это уже угроза национальной безопасности, – высказал опасение мажилисмен.

Сергей Пономарев рассказал, что мировой опыт наглядно демонстрирует всю серьезность рассматриваемой проблемы. К примеру, в США еще в 2020 году положения, касающиеся дипфейков, были включены в Закон об оборонном бюджете, где они определяются как угроза информационной безопасности. Республика Корея, в преддверии парламентских выборов 2024 года, ввела 90-дневный запрет на использование дипфейков в предвыборной агитации, нарушение которого карается штрафами или тюремным заключением. Многие страны активно разрабатывают и внедряют автоматизированные системы обнаружения фальсификаций, а также технологии цифровой маркировки для подтверждения подлинности контента.

Дипфейки все чаще применяются в сфере финансовых махинаций. Даже образованные люди становятся жертвами мошенников, когда слышат голос или видят видео с изображением знакомого, просящего о помощи. Согласно отчету компании Feedzai за 2025 год, более половины всех случаев онлайн-мошенничества совершается с помощью инструментов искусственного интеллекта. В ответ на это, банковские организации и платежные системы активно внедряют ИИ-решения для защиты своих клиентов.

Основную опасность представляет ущерб репутации. Даже последующее опровержение не может полностью нивелировать нанесенный вред, а восстановление утраченного доверия становится практически невозможным.

Учитывая активное развитие методов социальной инженерии и распространение ИИ-технологий, считаю необходимым, чтобы Министерство искусственного интеллекта и Министерство внутренних дел предприняли упреждающие меры, включающие:

1. Возложить на центр мониторинга и экспертизы цифрового контента обязанность по своевременному выявлению и блокировке дипфейков.

2. Разработать систему верификации подлинности цифровых изображений и видео, особенно для государственных информационных систем и официальных СМИ. Этот инструмент должен быть доступен не только судебным органам, но и всем гражданам, желающим проверить подлинность контента.

3. Провести масштабную информационную кампанию по обучению населения способам распознавания дипфейков и защите от цифрового мошенничества.

По словам спикера, фракция уже работает над внесением изменений в действующее законодательство, направленных на ужесточение наказаний за незаконное использование дипфейков и ограничение сфер применения синтетических продуктов ИИ.