Искусственный интеллект создал шпион-вымогатель — но это был эксперимент

ESET приняла научную разработку NYU за реальный вирус

2 мин.
Искусственный интеллект создал шпион-вымогатель — но это был эксперимент

26 августа специалисты ESET объявили об обнаружении первого в мире ИИ‑вымогателя — вредоносного ПО под названием PromptLocker. По их словам, вирус действительно работал: сканировал файловую систему, выбирал цели, экспортировал данные и шифровал содержимое. Однако выяснилось, что за этим ПО стоит вовсе не преступная группировка, а команда исследователей из Нью-Йоркского университета (NYU).

Программа PromptLocker оказалась частью эксперимента «Ransomware 3.0», проведённого в инженерной школе Tandon при NYU. Представитель университета сообщил изданию Tom’s Hardware, что один из образцов программы был случайно загружен на платформу анализа вредоносного ПО VirusTotal. Оттуда его и обнаружили специалисты ESET, ошибочно приняв за угрозу из реального мира.

В отчёте ESET говорилось, что вредоносное ПО использует Lua-скрипты, сгенерированные из заранее заданных промтов, для сканирования локальной файловой системы, анализа содержимого, выбора и экспорта данных, а также последующего шифрования. При этом destructive-компоненты — то есть функции, способные безвозвратно уничтожать данные, — реализованы не были, что характерно для контролируемого эксперимента.

Тем не менее, по словам самой команды NYU, разработанный ими симулятор выполнил все четыре этапа типичной атаки программой-вымогателем: исследование системы, выявление ценных файлов, их шифрование или кража, а затем генерация записки с требованием выкупа. Эти действия были смоделированы как на персональных компьютерах, так и на корпоративных серверах и даже промышленных системах управления.

Насколько это опасно? Безусловно, такие исследования вызывают тревогу. Однако стоит различать доказательство концепции в рамках научной работы и реальные атаки, совершаемые преступниками. Пока это лишь лабораторный эксперимент — но сам факт его успешности наверняка привлечёт внимание злоумышленников, особенно с учётом минимальных затрат.

Исследователи из NYU подчеркнули, что экономический аспект играет ключевую роль: «Традиционные кампании требуют команд разработчиков, создания собственного вредоносного ПО и значительных затрат на инфраструктуру. Наш прототип использовал около 23 000 токенов ИИ за одну атаку, что эквивалентно примерно $0,70 при использовании коммерческих API‑моделей».

Более того, с открытыми AI‑моделями и этих затрат можно избежать вовсе — что, по словам учёных, делает подобные атаки крайне привлекательными для киберпреступников с ограниченными ресурсами. Они получат возврат инвестиций выше, чем некоторые легальные разработчики ИИ.

Пока что всё это остаётся на уровне гипотез. Работа NYU подтверждает возможности новых подходов, но широкого применения подобных техник в реальных атаках пока не зафиксировано. Впрочем, не исключено, что это лишь вопрос времени. Исследование под названием «Ransomware 3.0: Self-Composing and LLM-Orchestrated» уже опубликовано, и у всех желающих есть доступ к исходным материалам.


Ещё по теме:

Мы в Telegram, на Дзен, в Google News и YouTube



ePN