Имитация голоса нейросетью - новый вид сетевого мошенничества

Итак, обычная житейская ситуация: вам звонит родственник, друг или приятель. Он попал в сложное положение и ему срочно нужны деньги. Номер его, говорит вроде бы он, но сам деле это не так – это имитация голоса нейросетью, типа Voicemaker, Uberduck или аналогичной по возможностям.

В начале 2023 года McAfee зафиксировала случаи скам-афер с использованием искусственного голоса. Понятно, что ничего принципиально нового в этой форме обмана нет – жулики и раньше с разной степенью успешности клянчили у доверчивых граждан деньги, но до сих пор им приходилось довольствоваться в основном текстовыми сообщениями. А полностью идентичный голос выводит уровень доверия на совершенно иной уровень. Останется только подменить идентификатор номера (что тоже уже можно сделать), и большинство людей будут абсолютно уверены, что разговаривают со своим знакомым.

Но давайте для начала разберем, как это вообще работает и как можно защититься от таких атак.

(McAfee – компания, специализирующаяся на разработке антивирусного программного обеспечения. Согласно отчету, в 2022 года, скамеры-самозванцы, выдающие себя за других людей, нанесли ущерб в размере 2,6 млрд. долл. Специалисты компании прогнозируют, что технологии “клонирования голоса” кратно увеличат статистику подобных преступлений — прим. переводчика).


Чем же так опасна имитация голоса нейросетью и что против неё можно предпринять

Из интервью Ричарда Батта (Richard Batt, эксперт по ИИ) для сайта Lifewire следует, что имитация голоса нейросетью в скамерских схемах – это наше ближайшее будущее. Нейросети обучаются очень быстро. К примеру, ElevenLabs (один из подобных сервисов) создает голос, практически неотличимый от оригинала, при этом ему требуется минимум исходного материала для своей работы. Легко представить себе людей, одураченных с помощью такой совершенной технологии. А уж если они возбуждены и находятся в напряженном эмоциональном состоянии, то облапошить их становится еще проще.


Подделка голоса нейросетью может использоваться для обмана

Сымитировав чужой голос, сетевой жулик легко прикинется вашим знакомым. Так, например, в апреле стала известна история женщины, которую убедили, что ее дочь похитили. Преступникам в этом как раз и помогла имитация голоса нейросетью.

Трудно в такое поверить? Возможно, вам придется это испытать на своем опыте. И ваше неверие может сыграть с вами злую шутку.

“Таким образом, подделка голоса является завершающим штрихом для реализации высокоперсонифицированного сетевого обмана. При этом данные берутся с доступных интернет-источников.”


Технические детали

Как это делается? Чтобы сгенерировать чей-то голос, требуется его образец. Первые результаты часто бывают неидеальны – ИИ должен потренироваться. Но, благодаря TikTok и Instagram, с исходниками проблем почти не возникает. Далее из постов в соцсетях берутся ваши персональные данные и социальные связи – “SMM-маркетинг”, так сказать. Затем — самое сложное в цепочке – подмена идентификатор мессенджера связи (телефон, Viber, WhatsApp, Zoom). И вот тут уже нужно обладать некоторыми хакерскими навыками.

Вся цепочка выглядит так: выбрать цель; собрать личные данные и социальные связи; найти “голосовой референс” и натренировать ИИ; подменить идентификатор мессенджера. Только после этого можно звонить “терпиле”. Нельзя сказать, что всё это совсем уж просто – требуется существенная подготовка, да и усилий приходится прилагать немало, но когда такие соображения останавливали аферистов?

“Мошенничество с имитацией голоса нейросетью может применяться для создания полного профиля людей-целей (жертв обмана) путем сбора информации из открытых источников. Для этого киберпреступники широко используют методы социальной инженерии – наработки, существующие уже много лет. Но теперь скамеры охотятся на своих жертв не в одиночестве — им на помощь приходит «идеальный сотрудник». ИИ не ведает усталости и разочарования, он не “выгорает”, а еще, может скопировать практически любой голос и язык”, Джеймс Леоне (James Leone, консультант по кибербезопасности компании IBM. Из интервью Lifewire).

Не следует думать, что фантазия ловкачей ограничивается только имитацией похищения. Как вам понравится “очень умный чат-бот с ИИ “мозгами””, который позвонит и представится сотрудником вашего банка?

Никогда не сталкивались с “аферой 419”? Когда вам “вдруг” приходит письмо от нигерийского принца с миллиардным наследством? Если нет – вы счастливчик. Возможно, скоро проходимцы решат, что письма – прошлый век, и затопят мир голосовым спамом. (“Нигерийские письма”, “мошенничество 419”, “наследство от нигерийского принца” – вид обмана в сети методом почтовых спам-рассылок. Суть “оффера” (предложения) в том, что вам на голову якобы “свалилась куча бабла” (наследство, выигрыш, перевод), но вам надо заплатить небольшую (сравнительно небольшую 10 – 200 долларов) сумму, что бы ее получить. Название происходит от статьи 419 УК Нигерии, запрещающей мошенничество. Действительно, изначально спамить начали нигерийцы (и другие африканцы), да и в письмах часто фигурировал “принц – благодетель” Нигерии, отсюда и названия разводняка. Прим. переводчика).

“Самая большая опасность заключается в технической легкости и дешевизне такого вида обмана. Если раньше для подобных подделок требовалось 10 часов аудио или видео записи, то теперь, с приходом нейросетей, все, что нужно – 10 сек аудио”. Риюл Гупта (Rijul Gupta, генеральный директор и соучредитель DeepMedia. Специализация: создание, обнаружение и противодействие дипфейкам. Интервью Lifewire).


Методы защиты

Каким бы продвинутым софтом ни пользовались интернет-проходимцы, методы противодействия остаются прежними: “Доверяй, но проверяй!”. А лучше – вообще не доверяй. После завершения сеанса, не поленитесь перезвонить абоненту, желательно из другого мессенджера.

Это же касается и обычных фишерских атак (например, путем сообщений). Аналогично проверяются фишерские атаки с “голосовым клоном”. Проблема заключается в приемах социальной инженерии: Если жена в телефоне видит номер мужа и слышит его голос, то она вполне может быть убеждена, что говорит именно с ним. Следует отметить, что сейчас нейросети все же не идеально воссоздают голоса, но это, безусловно, временное явление.

“Современные ИИ еще не способны полноценно имитировать разговор. Небольшой отрывок они могут сгенерировать достаточно хорошо, но длинный диалог они поддерживать пока что не в состоянии” – говорит Батт.

Но с такой скоростью развития, какую нам демонстрирует искусственный интеллект, до полноценного и очень убедительного общения, видимо, уже недалеко. Кто его знает, возможно, что скоро вы вообще перестанете отвечать абонентам с незнакомым номером.

Источник – Why AI Voice Scams Mean You Should Probably Never Answer Your Phone

Оставьте комментарий