Скандал в OpenAI: как Сэм Альтман ушёл и вернулся в компанию

Всё из-за внутреннего доклада по поводу работы компании

2 мин.
Скандал в OpenAI: как Сэм Альтман ушёл и вернулся в компанию

OpenAI – одна из самых известных и влиятельных организаций в области искусственного интеллекта, которая занимается разработкой и распространением ИИ во благо человечества. Но в последнее время компания столкнулась с серьёзными проблемами, связанными с её руководством, стратегией и этикой. В центре скандала оказался Сэм Альтман, отправленный в отставку глава OpenAI, который ушёл из компании после разногласия с советом директоров, а теперь вернулся обратно на свой пост.

Согласно материалу издания New York Times, причиной разногласий между Альтманом и советом директоров послужило исследование, опубликованное одним из членов совета – Хелен Тонер.

Тонер – директор Центра по безопасности и развивающимся технологиям в Университете Джорджтауна, опубликовавшая в октябре 2023 года доклад, в котором анализировала, как представители государственных органов и различные компании могут общаться друг с другом, чтобы избежать неприятных сюрпризов в области ИИ.

Хелен Тонер, член совета директоров OpenAI, защитила научную работу, соавтором которой являлась.

В докладе Тонер и её коллеги из Джорджтауна предложили четыре типа коммуникационных инструментов, которые они назвали «сигналами» – способами, что участники в области национальной безопасности и ИИ могут демонстрировать свои намерения и ценности другим сторонам. Эти сигналы поделили на четыре категории: «связывание рук», «невозвратные затраты», «разовые издержки» и «сокращаемые издержки». Каждая категория имеет свои преимущества и недостатки, в зависимости от ситуации и целей.

Тонер и её коллеги применили свою теорию сигналов к действиям OpenAI в связи с релизом модели GPT-4.

GPT-4 – это мощная модель генерации текста, которая была представлена компанией в марте 2023 года. Модель была признана впечатляющим технологическим прорывом, но её реальная ценность стала очевидна только после того, как OpenAI опубликовала дополнительные документы, где раскрыла риски, связанные с GPT-4, и то, как она пыталась их занизить.

Авторы доклада уверены, что эти документы были неэффективным средством коммуникации, так как не смогли убедить общественность в том, что OpenAI серьёзно относится к безопасности в области разработки ИИ. Они указывают на то, что OpenAI совершила другие шаги, которые подорвали значимость этих документов: в частности, досрочный и громкий запуск ChatGPT.

Другими словами, документ OpenAI о безопасности GPT-4 не был достаточно убедителен, так как не вызвал интереса из-за релиза ChatGPT.

Кроме того исследователи сравнили подход OpenAI с подходом её конкурента, Anthropic, и принадлежащей ей платформы Claude. Они похвалили решение Anthropic отложить запуск Claude, чтобы замедлить «ускорение прогресса в области ИИ». Они назвали это решение «дорогостоящим сигналом сдержанности».

Вывод из этого исследования заключается в том, что OpenAI должна быть более осторожной и прозрачной в своих действиях, связанных с ИИ, и использовать более эффективные сигналы для демонстрации своих ценностей и намерений. В противном случае она рискует потерять доверие и репутацию в глазах общественности и других участников в области ИИ.


Ещё по теме:

Мы в Telegram, на Дзен, в Google News и YouTube