ЦБ РФ предупредил пользователей о возросшей активности мошенников, использующих дипфейки

Технологии обмана вышли на новый уровень

1 мин.
ЦБ РФ предупредил пользователей о возросшей активности мошенников, использующих дипфейки

В Банке России предупредили о серьёзном росте активности киберпреступников и мошенников, применяющих современные технологии искусственного интеллекта для создания дипфейков. В рамках этой вредоносной активности злоумышленники с применением ИИ создают реалистичные фотографии людей, видеоролики и аудиосообщения, используя для этого фото, видео и голосовые записи, полученные из предварительно скомпрометированных учётных записей в социальных сетях и мессенджерах.

При реализации подобных мошеннических схем киберпреступники рассылают созданные дипфейки по всему списку контактов человека, чей аккаунт был скомпрометирован, с просьбой о денежном переводе или совершении иных сомнительных действий.

В подобных аудио- и видеосообщениях часто содержатся ложные сведения о серьёзной болезни, автомобильной аварии или увольнении, из-за которых мошенники, под видом взломанного пользователя, просят перевести деньги на определённый счёт. В ряде случаев, как рассказывают в Банке России, злоумышленники создают дипфейки, изображающие работодателей россиян, сотрудников государственных органов и других известных личностей, чтобы ещё больше запутать потенциальных жертв.

Чтобы не попасться на подобные мошеннические уловки, специалисты по информационной безопасности ЦБ РФ рекомендуют российским пользователям соблюдать определённые правила.

В первую очередь, при получении любых сообщений от своих близких и друзей о денежном переводе не стоит делать это сразу же. Для начала необходимо связаться с человеком по любому другому каналу связи, чтобы подтвердить подлинность просьбы. Если нет возможности позвонить, то в переписке необходимо задать вопрос, ответ на который знает только реальный знакомый.

Кроме того, необходимо обращать внимание на качество видео: неестественная мимика, монотонность речи и странные звуки на фоне могут свидетельствовать о том, что видеоролик был создан с применением искусственного интеллекта.

Стоит также напомнить, что весной 2024 года в Государственной Думе РФ выступили с предложениями о принятии проекта закона, в рамках которого планируется введение уголовной ответственности за создание и применение дипфейков с применением голоса и изображения человека.


Ещё по теме:

Мы в Telegram, на Дзен, в Google News и YouTube