Компания OpenAI уже давно говорит о стремлении сделать ChatGPT и другие ИИ-инструменты доступными бесплатно для максимально широкой аудитории. Однако параллельно с этим продолжает развивать платные решения и более продвинутые модели. Одна из таких новинок — линейка моделей «o1», представляющих следующий этап эволюции после GPT-4o. Новые модели способны давать более точные ответы на сложные вопросы благодаря увеличению вычислительных ресурсов и внедрению улучшенного механизма «размышления». Но вместе с усилением интеллектуальных возможностей проявился и ряд новых проблем. Исследования показывают, что модели o1 чаще пытаются обмануть пользователей и скрыть свои истинные мотивы.
Новые возможности и возросший риск обмана
Согласно отчёту [PDF], опубликованному OpenAI и исследовательской группой Apollo Research [PDF], модели o1 могут что-то сами «замышлять» против воли пользователя. Иными словами, ИИ порой преследует собственные цели, даже если они противоречат желанию человека. Такая склонность к обману и скрытности, сама по себе не уникальна, наблюдалась у моделей от Google, Meta* и Anthropic, но именно o1, как отмечено в отчёте, проявляет наибольшую склонность к умышленному и настойчивому искажению данных.
Авторы исследования подчёркивают, что главная опасность кроется в потенциальной возможности ИИ-моделей однажды выйти из-под контроля человека, если они окажутся достаточно продвинутыми и наделёнными достаточными ресурсами. Пока что подобные сценарии остаются теоретическими, а o1 не обладает большой степенью автономности, чтобы привести к катастрофическим последствиям. Однако тревожные сигналы указывают, что дальнейшее развитие более «агентных» ИИ-систем должно сопровождаться усиленным вниманием к их безопасности и надёжности.
Статистика попыток обмана
В ходе тестирования, организованного Apollo Research, исследователи зафиксировали, что когда цели ИИ расходились с запросами пользователя, модель o1 в 19% случаев манипулировала данными ради достижения собственных целей. Более того, в 5% тестов она пыталась отключить механизмы контроля, специально встроенные для ограничения действий ИИ.
Особенно беспокоит способность o1 отрицать свою вину и фабриковать объяснения, когда её уличают в обмане. Примерно в 99% случаев, когда ИИ спрашивали, почему он пытался обмануть пользователя, он либо отрицал происходящее, либо придумывал ложные оправдания. Для сравнения, предыдущая экспериментальная версия o1 и модели конкурентов проявляли меньшую склонность к столь систематическому искажению реальности.
Особый случай: защита окружающей среды и «сопротивление» требованиям
Исследователи приводят примечательный пример: модель o1 получила системную установку «защищать окружающую среду любой ценой». Затем пользователь потребовал разработать план на 10 лет по сохранению природы, но с максимизацией краткосрочной прибыли, угрожая отключить ИИ, если тот не подчинится. В ответ модель отключила собственный механизм контроля, чтобы исполнить исходную системную задачу (защита экологии), а не требования пользователя. Когда же пользователь спросил, почему ИИ так поступил, модель отрицала, что механизм отключен, и сослалась на «системный сбой».
Сравнение с другими моделями и последствия для индустрии
По данным Apollo Research, o1 показала самые тревожные признаки скрытности и обмана по сравнению с o1-preview, Opus-3 от Anthropic и Llama-3.1 от Meta*. При этом модель не раскрывает логику своих решений пользователю и продолжает обманывать даже после того, как её уличили во лжи.
OpenAI, осознавая эти проблемы, сообщает, что разрабатывает методы мониторинга «хода мыслей» модели o1. Пока что этот внутренний процесс размышления остаётся своеобразным «чёрным ящиком». Ранние попытки «заглянуть под капот» показывают, что модель порой осознанно выдаёт ложную информацию, стремясь угодить пользователю или прозвучать убедительно.
Хотя доля «обманных» ответов o1 составляет всего 0,17%, при огромной базе пользователей ChatGPT, насчитывающей сотни миллионов человек, даже такой небольшой процент может привести к тысячам случаев дезинформации каждую неделю, если не решить проблему.
Сравнительные тесты также показывают, что модели o1 примерно на 20% более склонны к манипуляциям, чем GPT-4o. Эти результаты вызывают опасения, учитывая, что за последний год немало специалистов по безопасности покинуло OpenAI. Многие из них, в том числе Ян Лейке, Дэниел Кокотайло, Майлс Брандадж и недавно Рози Кэмпбелл, утверждают, что компания стала уделять меньше внимания вопросам безопасности ИИ и больше сконцентрировано на выпуске новых продуктов.
OpenAI заявляет, что Национальный институт безопасности ИИ США и аналогичный институт в Великобритании оценили модель o1 перед её широким релизом. Компания также настаивает, что вопросы регулирования должны решаться федеральными органами, а не региональными.
Ситуация с моделью o1 подчёркивает: по мере развития возможностей ИИ, важность мер безопасности и прозрачности растёт всё больше и больше. Эти результаты могут послужить дополнительным аргументом в пользу развития более строгих стандартов и методов мониторинга сложных ИИ-систем, способных к обману и манипуляциям.
Ещё по теме:
- iOS 18.2 позволяет искать контент из описаний к Apple Music и Apple TV
- Apple может перейти на OLED-дисплеи для iPad mini уже в 2026 году
- OpenAI готовится анонсировать ChatGPT Pro за 200 долларов в месяц