Грабители банков на Ближнем Востоке клонировали голос, чтобы совершить ограбление на сумму $35 млн.

Технология Deepfake была использована для имитации голоса делового партнёра менеджера банка

Грабители банков на Ближнем Востоке клонировали голос, чтобы совершить ограбление на сумму $35 млн.
2 мин.

История, источником которой послужил недавно обнаруженный судебный документ, произошла в январе прошлого года. Менеджер отделения банка, название которого не раскрывается, получил, казалось бы, обычный телефонный звонок.

Человек на другом конце линии утверждал, что является директором крупной компании, с которой менеджер ранее уже общался. Как утверждается в судебных документах, голос звонившего был крайне убедителен. Это, а также электронные письма от компании и её юриста, убедили менеджера филиала в том, что фирма находится в процессе крупной сделки на сумму 35 миллионов долларов.

Менеджер банка последовал указаниям звонившего и начал инициировать ряд крупных денежных переводов от компании на новые счета. К сожалению, всё это оказалось изощренной аферой.

Дубайские следователи выяснили, что мошенники использовали технологию «deepvoice», чтобы имитировать голос директора. Власти полагают, что в схеме участвовало до 17 различных человек, а похищенные деньги были переведены на несколько банковских счетов, разбросанных по всему миру. Двое из этих счетов находились Centennial Bank в США, и на них поступило около $400 000 – именно поэтому дело перешло к американской судебной системе. Следователи из ОАЭ обратились к американским чиновникам за помощью в расследовании.

Хотите верьте, хотите нет, но это уже не первый подобный случай. В 2019 году похожая участь постигла энергетическую компанию в Великобритании: мошенникам удалось похитить около $243 000, выдав себя за генерального директора компании. И, по мнению людей, следящих за рынком ИИ, вряд ли этот случай будет последним.

«Аудио- и визуальные дипфейки представляют собой интересное развитие технологий XXI века, но в то же время они потенциально невероятно опасны, представляя огромную угрозу для данных, денег и бизнеса», – рассказал Forbes Джейк Мур, эксперт по кибербезопасности компании ESET.

«В настоящее время мы находимся на пороге того, что злоумышленники начнут переводить накопленный опыт и ресурсы на использование новейших технологий для манипулирования людьми, которые не знают о возможностях технологии deep fake и даже об их существовании».

Очевидно, что такие технологии в последнее время стали пугающе эффективными — достаточно взглянуть на видео с Томом Крузом.

Но должны ли мы регулировать их? Возможно, это хорошая идея, но вот критики расходятся во мнениях относительно того, по какому пути могут пойти новые регулирующие правила. Одни говорят, что такие законы создадут больше проблем, чем решат, другие утверждают, что они могут ущемлять свободу слова и свободу творчества. В любом случае, кажется, что нам всем следует разобраться в этом как можно скорее, пока многомиллионные банковские ограбления не стали новой нормой.


Bank Robbers ‘Cloned’ Someone’s Voice to Steal $35 Million
Deepfake technology was used to simulate the voice of a bank manager’s business associate, which led to illegitimate financial transfers.

Ещё по теме:

Мы в Telegram, на Дзен, в Google News и YouTube



Похожие материалы