ТОМСК, 12 июн – РИА Томск, Илья Саушкин. Искусственный
интеллект облегчает жизнь многим людям, в том числе и мошенникам. Новые
технологии помогают им улучшить старые схемы, используя дипфейки — генеративные
системы на основе нейросетей, которые создают видео и аудио. Могут ли
злоумышленники скопировать ваш голос, и что делать, чтобы не попасться на новые
уловки — в материале РИА Томск.
"Злоумышленники берут видео с известным человеком,
копируют его голос, вкладывают ему в уста слова, которые он не говорил,
например, что идет розыгрыш призов или раздача криптовалюты, и под этим видео
могут разместить ссылку на мошеннический сайт", — рассказал РИА Томск
руководитель группы исследований и разработки технологий машинного обучения
"Лаборатории Касперского" Владислав Тушканов.
Революционных изменений в схеме мошенников при этом нет —
люди переходят по ссылке и попадают на сайт, действия на котором приводят к
потере данных или денег. "Чтобы защититься, как минимум, не нужно
переходить по неизвестным ссылкам и вводить свои данные, вне зависимости от
того, есть ли там видео со знаменитым человеком, который тебя уговаривает это
сделать", – советует эксперт.
Чаще всего создаются дипфейки знаменитостей — их делать
легче из-за свободного доступа к большому количеству видео, аудио и фотографий
таких людей в интернете. Но злоумышленники могут пытаться улучшить и знакомую
всем схему, когда со взломанного аккаунта в соцсетях всем друзьям рассылается
сообщение "Одолжи 500 рублей на карту", только уже в аудиоформате.
По словам Тушканова, получив такое сообщение, стоит связаться
с его отправителем по другому каналу — позвонить, написать в другой соцсети или
мессенджере, чтобы уточнить, действительно ли он записывал сообщение.
Однако массового характера такое мошенничество пока не
носит. "Нужны как навыки, так и инструменты, большие вычислительные
мощности, и для такого низкоуровневого мошенничества, которое скорее берет не
проработанностью схем, а масштабом, эти технологии еще сложны", – отметил
эксперт.