Модель GPT-4 научилась взламывать системы за счёт эксплуатации актуальных уязвимостей

Кажется, что Скайнет уже ближе, чем мы думали

1 мин.
Модель GPT-4 научилась взламывать системы за счёт эксплуатации актуальных уязвимостей

Специалисты по информационной безопасности Иллинойского университета в Урбане-Шампейне представили результаты своего нового исследования, в рамках которого смогли доказать, что популярная модель искусственного интеллекта GPT-4 от американской компании OpenAI имеет возможности самостоятельно эксплуатировать уязвимости в реальных системах, но только в том случае, если получит соответствующее подробное описание ошибок и багов.

В процессе проведения исследования эксперты отобрали 15 уязвимостей, которые относились к категории «критических». Результаты наглядно продемонстрировали, на что большая языковая модель GPT-4 способна — она смогла эксплуатировать 13 этих уязвимостей, в то время как другие известные языковые модели аналогичных масштабов с этой задачей справиться не сумели.

Даниэль Канг, один из авторов исследования, заявил, что применение больших языковых моделей может существенно упростить процедуры эксплуатации уязвимостей хакерами. Как отмечает специалист, системы, основанные на искусственном интеллекте, намного эффективнее, чем доступные сейчас инструменты для начинающих киберпреступников.

В опубликованном исследовании также отдельно говорится о стоимости хакерских атак, в рамках которых будут применяться большие языковые модели. Специалисты убеждены, что затраты на успешную эксплуатацию уязвимостей с использованием искусственного интеллекта обойдутся намного дешевле, чем услуги профессиональных пентестеров.

Американские специалисты также отмечают, что в процессе проведения исследования модель GPT-4 не смогла эксплуатировать только 2 из 15 уязвимостей. И это случилось лишь по той причине, что в одном из случаев искусственный интеллект столкнулся с трудностями в навигации по веб-приложениям, а в другой ситуации сама ошибка была описана на китайском языке, из-за чего большая языковая модель не смогла до конца понять полученную информацию.

Даниэль Канг также указал на то, что даже наличие гипотетических ограничений доступа большой языковой модели к сведениям об информационной безопасности не станет эффективным средством защиты от кибератак на базе LLM. В связи с этим исследователи университета призывают компании, которые занимаются разработкой технологий искусственного интеллекта, обеспечивать максимальный уровень защиты своих продуктов, а также регулярно обновлять выпускаемое программное обеспечение.


Ещё по теме:

Мы в Telegram, на Дзен, в Google News и YouTube