ТОМСК, 23 апр – РИА Томск. Использование мошенниками дипфейков может стать одной из ключевых угроз уже в 2026 году; злоумышленники активно осваивают нейросети и начинают применять их для массового обмана, рассказала в четверг управляющий Отделением Томск Банка России Елена Петроченко на пресс-конференции в медиацентре РИА Томск.
Дипфейк – это технология создания или изменения фото-, аудио- и видеоматериалов с помощью искусственного интеллекта (нейросетей), при которой лицо, голос или жесты одного человека заменяются на другие с высокой степенью реалистичности. Термин происходит от объединения слов "глубокое обучение" (deep learning) и "подделка" (fake).
"Вероятно, 2026-й год станет первым годом, когда ключевой угрозой будет использование дипфейков. Люди научились пользоваться нейросетями, мошенники осваивают их значительно быстрее обычного населения. И в ближайшее время доля хищений, совершенных с использованием дипфейков, может вырасти", – сказала Петроченко.
По ее словам, речь идет прежде всего о видеосообщениях и голосовых записях, которые создаются от имени знакомых жертвам преступления людей. При этом, даже если признаки подделки заметны, в реальной ситуации люди часто могут их не распознать.
"Сегодня из фотографии могут сделать так, как будто она движется. На первый взгляд можно определить, что это дипфейк: монотонный голос, отсутствует мимика. Но когда вы смотрите на маленький экран смартфона, на этот маленький кружочек, где человек говорит, вы видите знакомое лицо – и дальше уже не всматриваетесь, а просто слушаете", – подчеркнула эксперт.
Она отметила, что любые просьбы о переводе денег нужно проверять лично.
"Если человек получает видеосообщение от какого-то знакомого лица с просьбой перечислить деньги, сообщить код из СМС или предоставить какую-то информацию, нужно обязательно проверить, действительно ли этот человек записал это видео. Перезвонить на обычный телефон этому человеку и спросить, действительно ли было такое обращение", – добавила Петроченко.