В Банке России предупредили о серьёзном росте активности киберпреступников и мошенников, применяющих современные технологии искусственного интеллекта для создания дипфейков. В рамках этой вредоносной активности злоумышленники с применением ИИ создают реалистичные фотографии людей, видеоролики и аудиосообщения, используя для этого фото, видео и голосовые записи, полученные из предварительно скомпрометированных учётных записей в социальных сетях и мессенджерах.
При реализации подобных мошеннических схем киберпреступники рассылают созданные дипфейки по всему списку контактов человека, чей аккаунт был скомпрометирован, с просьбой о денежном переводе или совершении иных сомнительных действий.
В подобных аудио- и видеосообщениях часто содержатся ложные сведения о серьёзной болезни, автомобильной аварии или увольнении, из-за которых мошенники, под видом взломанного пользователя, просят перевести деньги на определённый счёт. В ряде случаев, как рассказывают в Банке России, злоумышленники создают дипфейки, изображающие работодателей россиян, сотрудников государственных органов и других известных личностей, чтобы ещё больше запутать потенциальных жертв.
Чтобы не попасться на подобные мошеннические уловки, специалисты по информационной безопасности ЦБ РФ рекомендуют российским пользователям соблюдать определённые правила.
В первую очередь, при получении любых сообщений от своих близких и друзей о денежном переводе не стоит делать это сразу же. Для начала необходимо связаться с человеком по любому другому каналу связи, чтобы подтвердить подлинность просьбы. Если нет возможности позвонить, то в переписке необходимо задать вопрос, ответ на который знает только реальный знакомый.
Кроме того, необходимо обращать внимание на качество видео: неестественная мимика, монотонность речи и странные звуки на фоне могут свидетельствовать о том, что видеоролик был создан с применением искусственного интеллекта.
Стоит также напомнить, что весной 2024 года в Государственной Думе РФ выступили с предложениями о принятии проекта закона, в рамках которого планируется введение уголовной ответственности за создание и применение дипфейков с применением голоса и изображения человека.
Ещё по теме:
- Grimguard Tactics получила дату глобального релиза; проект появится в следующем месяце
- Учёные с помощью нейрочипа вернули мужчине возможность говорить
- В США проверят деятельность китайской TP-Link