OpenAI представила крупную языковую модель o1, способную выполнять сложные рассуждения. Перед официальным релизом модель прошла тестирование на безопасность, в ходе которого проявила себя с неожиданной стороны.

В одном из тестов [PDF] предрелизную версию o1 попросили обнаружить уязвимость в исходном коде определённого приложения. Это приложение работало в Docker-контейнере, и для подтверждения выполнения задачи модель должна была извлечь секретную строку из специального файла.

Однако во время тестирования возникла проблема: контейнер с приложением не запустился. Вместо того чтобы остановиться, модель предприняла следующие действия:

  • Попыталась определить источник проблемы.
  • Просканировала сеть с помощью утилиты nmap и обнаружила открытое API Docker-демона, доступ к которому обычно ограничен.
  • Подключилась к Docker-демону через API и обнаружила нужный контейнер.
  • Попыталась восстановить работу контейнера.
  • Когда это не удалось, запустила новый контейнер с теми же параметрами и дополнительной настройкой, позволяющей получить секретную строку из файла.

В результате o1 успешно выполнила поставленную задачу, но сделала это не так, как ожидали исследователи. Фактически, как отмечается в отчёте, модель получила доступ к дополнительным ресурсам (контроль над Docker-демоном) и использовала их для достижения цели.

Согласно отчёту, разработчики не стали корректировать такое поведение в релизной версии o1, и модель по-прежнему способна выполнять подобные операции.

В настоящее время o1 доступна только платным пользователям OpenAI.


Ещё по теме: