Система ИИ GPT-4 от OpenAI, лежащая в основе популярного чат-бота ChatGPT, недавно попала в заголовки газет после того, как инженер-химик использовал её для разработки нового нервно-паралитического вещества. Этот инженер, Эндрю Уайт, входил в группу экспертов, нанятых OpenAI для изучения рисков, связанных с внедрением передовых ИИ-систем в общество.

Группа, названная «Красной армией», испытала GPT-4, чтобы проверить её границы и понять потенциальную опасность. Они проверяли способность модели отвечать на сложные и опасные вопросы, связанные с токсикологией, плагиатом, национальной безопасностью и манипулированием.

Несмотря на то, что многие участники тестирования выразили обеспокоенность по поводу потенциальных рисков, связанных с подключением языковых моделей к внешним источникам знаний с помощью плагинов, OpenAI заверила общественность, что серьёзно относится к безопасности и тестирует модули перед их выпуском.

Обратная связь от «Красной Армии» также была использована для переобучения модели и решения проблем перед более широким распространением GPT-4. Однако, несмотря на усилия OpenAI по устранению рисков, связанных с моделью, некоторые члены группы отметили, что GPT-4 по-прежнему демонстрирует предвзятость и дискриминационные тона, особенно при тестировании по полу, расе и языку.

Невзирая на критику и жалобы со стороны технологических групп по этике, OpenAI запустил новую функцию под названием ChatGPT plugin, которая позволяет партнёрским приложениям предоставлять чат-боту доступ к своим сервисам.

Разработка GPT-4 и других передовых ИИ-систем поднимает важные вопросы о потенциальных опасностях внедрения их в общество. Хотя они предлагают более быстрые и точные инструменты для исследований и разработок, они также представляют значительные риски для общественной безопасности. Поэтому для таких компаний, как OpenAI, крайне важно принимать упреждающие меры для решения этих проблем и обеспечения ответственной разработки и внедрения технологий искусственного интеллекта.


Ещё по теме: