МИНСК, 16 ноя – РИА Томск, Илья Саушкин. Нейросети в руках злоумышленников становятся инструментом для мошенничества и создания вредоносных программ. Чем Dark AI грозит обычному пользователю, сколько стоит создание дипфейка и почему под угрозой даже сами мошенники – в материале РИА Томск.
"Dark AI – это модели искусственного интеллекта, которые злоумышленники изначально создают для себя или предоставляют доступ к ним другим злоумышленникам, чтобы совершать мошеннические операции, разрабатывать вредоносные программы или даже пытаться взламывать серверы или компьютеры пользователей", – рассказал РИА Томск директор Kaspersky GReAT Игорь Кузнецов.
По словам эксперта, для обычного пользователя одна из серьезных угроз Dark AI – дипфейки. На теневых площадках просят от 50 долларов за создание видео и от 30 – за аудио. Получив доступ к аккаунту в Telegram, мошенники могут собрать голосовые сообщения, обработать их с помощью нейросети и затем от имени этого аккаунта записать убедительное голосовое. Например, попросить занять деньги.
"Совет очень простой и максимально эффективный: относиться в принципе ко всему с подозрением. Выявить моменты, когда именно нужно подозревать, не так уж и сложно: во всех мошеннических действиях всегда есть некий призыв к действию, которое может нанести ущерб", – поделился Кузнецов.
Это может быть просьба передать код из СМС, перевести деньги или отдать свой пароль. В такие моменты, даже если перед этим диалог не вызывал подозрений, нужно найти другой канал связи: позвонить собеседнику по обычному телефону или, наоборот, если звонили с обычного, позвонить или написать в мессенджере.
При этом создавать дипфейки "в промышленных масштабах" пока слишком дорого. "Постоянно генерировать видео под каждого персонального пользователя мошенникам по-прежнему невыгодно, если они не будут уверены, что заработают на каждом как минимум столько, сколько потратили", – объясняет эксперт.
Что кроме дипфейков?
Также искусственный интеллект помогает мошенникам создавать фишинговые рассылки, генерировать грамотный и убедительный текст, минуя языковой барьер. А у хакеров свои нейросети – если верить объявлениям тех, кто разрабатывает именно Dark AI, для выдачи качественного вредоносного кода его специально обучают на вредоносных текстах, доступных в интернете.
Под угрозой оказываются даже сами мошенники, которые пользуются такими моделями ИИ. Большинство из них предоставляются как сервис, а значит запустить их у себя на компьютере изолированно от интернета не получится. Неизвестно, как именно обрабатываются полученные запросы, и создатели Dark AI могут использовать их в своих целях.
"Самая большая угроза для злоумышленников – это использование агентского ИИ от других мошенников. Ведь ты никогда не знаешь, захотят они устранить конкурентов или реально будут предоставлять платный сервис", – отметил Кузнецов.