Федеральное бюро расследований зафиксировало новую волну мошеннических атак, связанных с применением злоумышленниками современных технологий искусственного интеллекта. С помощью новых ИИ-моделей киберпреступники могут организовывать и проводить сложные и масштабные схемы мошенничества, используя методики социальной инженерии, которые сложно распознать даже опытным пользователям.
Эксперты по информационной безопасности ФБР заявляют, что современные модели генеративного искусственного интеллекта, направленные на создание контента на основе анализа огромных массивов данных, применяются киберпреступниками для автоматизации их действий. Использование нейросетей мошенниками существенно сокращает время и усилия, которые требуются для успешного обмана пользователей. Это позволяет преступникам проводить целевые атаки против большого числа людей.
В ФБР отмечают, что, несмотря на то что создание даже сомнительного контента с применением искусственного интеллекта не является противозаконным, киберпреступники всё чаще используют генеративный ИИ для проведения мошеннических атак, вымогательства денежных средств у пользователей и кражи конфиденциальной информации. Например, с помощью ИИ-моделей злоумышленники создают фейковые аккаунты в социальных сетях, а затем убеждают потенциальных жертв перевести деньги на поддельные счета.
Киберпреступники, по данным ФБР, с помощью искусственного интеллекта также начали создавать качественные фишинговые сообщения для электронной почты, безошибочно переводить созданные тексты на различные языки мира и разрабатывать контент для поддельных сайтов, ориентированных на определённые категории пользователей. Кроме того, для заманивания людей на фишинговые сайты часто используются чат-боты в мессенджерах, что привлекает новых жертв.
Особую угрозу для большого числа пользователей, по словам экспертов из ФБР, представляют визуальные и аудиоматериалы, созданные с применением ИИ. Например, киберпреступники используют реалистичные фотографии для распространения фейковых документов, создают поддельные видеоролики и образцы голоса, якобы принадлежащие различным людям. С помощью такого контента злоумышленники могут проводить целевые атаки, действуя от имени родственников, друзей или коллег своих жертв.
По словам аналитиков из ФБР, основными методами защиты от подобных атак остаются бдительность, внимательность и осторожность пользователей.
Ещё по теме:
- «Стань кем угодно 2.0» – маска для изменения лица с LED-дисплеем, которая оправдывает своё название
- Слух: iPhone SE 4 будет оснащён 48-мегапиксельной задней камерой и 12-мегапиксельной камерой TrueDepth
- Западные спецслужбы заподозрили радикалов в вербовке молодёжи через TikTok и Discord