11.11.2025
Дипфейки в звонках
Подделать голос стало проще, чем написать письмо. Эксперты предупреждают о резком росте атак с использованием синтезированной речи.
Мошеннические схемы с использованием поддельных голосовых сообщений стремительно набирают обороты. К концу 2025 года количество таких инцидентов может увеличиться вдвое, а в 2026-м — ещё как минимум в два раза. Главная причина — низкий порог входа в технологии синтеза речи и массовая доступность программных решений для создания дипфейков.

«Создать поддельный голос сегодня может любой человек, даже без специальных знаний. Инструменты становятся проще, а результат — всё убедительнее. Это делает фейковые аудиосообщения одним из самых быстрорастущих каналов социальной инженерии», — подчеркнул Алексей Козлов, ведущий аналитик отдела мониторинга ИБ компании «Спикател». По его оценке, к концу 2025 года количество дипфейков в России может вырасти вчетверо по сравнению с прошлым годом.

Эксперты советуют компаниям внедрять многоуровневую систему проверки запросов и строить культуру цифровой осмотрительности. Для предотвращения атак важно обучать сотрудников не доверять голосовым сообщениям без подтверждения и проверять информацию через корпоративные каналы. В ближайшее время власти планируют ввести уголовную ответственность за использование ИИ в мошеннических целях и обязать операторов связи блокировать подозрительные номера.

Источник: IZ.ru

Алексей Козлов

Ведущий аналитик отдела мониторинга информационной безопасности «Спикатела»