Руководитель американской компании OpenAI Сэм Альтман принял решение о выходе из внутренней комиссии, созданной в мае 2024 года для контроля над безопасностью моделей искусственного интеллекта, разработкой которых занимается фирма. Новый комитет будет составлен заново из действующих членов совета директоров OpenAI и будет наделён полномочиями приостановки релиза продукта, если в нём будет замечена какая-либо опасность.
Как отмечают журналисты, в компании OpenAI на протяжении нескольких последних месяцев складывалась кризисная ситуация. На фоне этого около 50% сотрудников, работающих с долгосрочными рисками новых продуктов OpenAI, покинули свои рабочие места. Многие из тех, кто занимает руководящие посты в компании, обвинили Сэма Альтмана в том, что он противодействовал реальным мерам регулирования искусственного интеллекта, мешающим достижению корпоративных целей. Отчасти правота критиков была подтверждена значительным увеличением расходов компании OpenAI на лоббирование: в течение первых шести месяцев этого года бюджет вырос с 260 тысяч долларов до 800 тысяч долларов.
Новый комитет по безопасности в компании OpenAI возглавил профессор Университета Карнеги-Меллон Цико Колтер.
Основными обязанностями нового независимого комитета станет получение и изучение регулярных отчётов по технической оценке существующих и разрабатываемых ИИ-моделей. Комитет также будет рассматривать отчёты по наблюдению за выпущенными продуктами после их релиза. Уже известно, что независимая комиссия проанализировала уровень безопасности новейшей модели ChatGPT 01.
При этом журналисты издания TechCrunch скептически настроены относительно честности и деятельности нового комитета, поскольку даже после ухода Сэма Альтмана из комиссии мало что указывает на то, что представители комитета будут принимать решения, невыгодные для компании.
На официальном сайте компании OpenAI говорится о том, что информационная безопасность является одним из важнейших компонентов безопасности искусственного интеллекта. Поэтому компания продолжит использовать подход, базирующийся на оценке риска, при реализации мер безопасности, а также развивать этот подход по мере изменения модели угроз и профилей риска, создаваемых моделями искусственного интеллекта.
Ещё по теме: