Ивановский губернатор Воскресенский стал жертвой дипфейка. Что известно о фейковом видео?

В соцсетях распространяется фейк о дронах с губернатором Ивановской области

icon 05/06/2025
icon 19:03

© Шедеврум

Шедеврум

В социальных сетях распространяется фейковая информация якобы от имени губернатора Ивановской области Станислава Воскресенского. В видеоролике, созданном с помощью нейросети, глава региона пытается донести несколько ключевых мыслей, совмещая оправдание и перекладывание ответственности.

Фейк: Воскресенский обвинил российские власти и армию в невозможности предотвратить атаку дронов на военный аэродром в Иванове.

В действительности же глава 37-го региона никогда не выступал с подобными заявлениями. Мы наблюдаем очередной пример применения технологии дипфейк.

Авторам вброса удалось изменить содержание речи ивановского губернатора на записи, сделанной совсем в другое время и по другому поводу.

В последние дни в соцсетях активно распространяются фальшивые видео с участием российских губернаторов, созданные с помощью нейросетей. Эта тенденция не нова: украинские структуры уже не раз использовали подобные методы в информационной войне.

Пик первой волны пришелся на август 2024 года, когда в сети резко увеличилось количество поддельных роликов на политическую и военную тематику. Согласно анализу АНО «Диалог Регионы», за последние полгода масштабы атак только возросли.

Один из самых массовых случаев был зафиксирован в мае 2025 года, когда за 24 часа под удар попали главы Нижегородской, Кировской, Липецкой, Томской, Новосибирской областей, Ямало-Ненецкого автономного округа и других регионов. Ежедневно в сети появлялись десятки фейковых видео.

Статистика дипфейков в 2025 году:

  • 111 оригинальных роликов

  • 7,5 тысяч их копий и репостов

    Это на 32% больше, чем за весь 2024 год, и в 4 раза превышает показатели 2023-го.

Как отличить дипфейк?

  1. Проверьте источник – чаще всего подделки создают на основе реальных записей. Попробуйте найти оригинал.

  2. Обратите внимание на мимику – неестественные движения губ, глаз или бровей выдают фальшивку.

  3. Следите за артикуляцией – если звук не совпадает с движением губ, это явный признак монтажа.

  4. Прислушайтесь к голосу – синтетическая речь часто звучит монотонно и без эмоций.

  5. Изучите детали – размытые контуры лица или фона могут указывать на обработку ИИ.

Оставайтесь бдительными! Получайте информацию только из официальных источников – проверенных соцсетей и СМИ. Не дайте себя обмануть!