Утренний дайджест: задержан зам мэра Мягков, расторгнут договор с мужем Гатаулиной, Енгибаряну изменили меру пресечения

© Шедеврум
В социальных сетях распространяется фейковая информация якобы от имени губернатора Ивановской области Станислава Воскресенского. В видеоролике, созданном с помощью нейросети, глава региона пытается донести несколько ключевых мыслей, совмещая оправдание и перекладывание ответственности.
Фейк: Воскресенский обвинил российские власти и армию в невозможности предотвратить атаку дронов на военный аэродром в Иванове.
В действительности же глава 37-го региона никогда не выступал с подобными заявлениями. Мы наблюдаем очередной пример применения технологии дипфейк.
Авторам вброса удалось изменить содержание речи ивановского губернатора на записи, сделанной совсем в другое время и по другому поводу.
В последние дни в соцсетях активно распространяются фальшивые видео с участием российских губернаторов, созданные с помощью нейросетей. Эта тенденция не нова: украинские структуры уже не раз использовали подобные методы в информационной войне.
Пик первой волны пришелся на август 2024 года, когда в сети резко увеличилось количество поддельных роликов на политическую и военную тематику. Согласно анализу АНО «Диалог Регионы», за последние полгода масштабы атак только возросли.
Один из самых массовых случаев был зафиксирован в мае 2025 года, когда за 24 часа под удар попали главы Нижегородской, Кировской, Липецкой, Томской, Новосибирской областей, Ямало-Ненецкого автономного округа и других регионов. Ежедневно в сети появлялись десятки фейковых видео.
Статистика дипфейков в 2025 году:
111 оригинальных роликов
7,5 тысяч их копий и репостов
Это на 32% больше, чем за весь 2024 год, и в 4 раза превышает показатели 2023-го.
Как отличить дипфейк?
Проверьте источник – чаще всего подделки создают на основе реальных записей. Попробуйте найти оригинал.
Обратите внимание на мимику – неестественные движения губ, глаз или бровей выдают фальшивку.
Следите за артикуляцией – если звук не совпадает с движением губ, это явный признак монтажа.
Прислушайтесь к голосу – синтетическая речь часто звучит монотонно и без эмоций.
Изучите детали – размытые контуры лица или фона могут указывать на обработку ИИ.
Оставайтесь бдительными! Получайте информацию только из официальных источников – проверенных соцсетей и СМИ. Не дайте себя обмануть!