OpenAI временно приостановила доступ к своему ещё не выпущенному, но очень ожидаемому инструменту для генерации видео Sora после того, как небольшая группа художников опубликовала доступ к нему в знак протеста против отношения компании к творческим профессионалам. Художники, тестировавшие инструмент заявили, что их используют как «пиар-марионеток».
OpenAI предоставила сотням художников бесплатный ранний доступ к Sora для тестирования нового генератора видео с искусственным интеллектом. Однако около 20 из них утверждают, что компания воспользовалась их неоплачиваемым трудом и использует их для улучшения своего имиджа.
Чтобы привлечь внимание к проблеме OpenAI, группа опубликовала онлайн-инструмент, позволяющий широкой публике использовать Sora для создания видео.
«Сотни художников предоставляют неоплачиваемый труд через тестирование на наличие ошибок, обратную связь и экспериментальную работу для компании с оценкой в 150 миллиардов долларов», — написала группа в заявлении, опубликованном на Hugging Face, открытой платформе для проектов на базе искусственного интеллекта.
Возможности, предлагаемые в обмен на помощь компании, такие как отбор для показа их фильмов, созданных с помощью Sora, предлагают «минимальную компенсацию, которая блекнет по сравнению с существенной пиар- и маркетинговой ценностью, которую получает OpenAI», добавили художники.
По их словам, инструмент был доступен всего три часа, после чего OpenAI быстро закрыла интерфейс. Представитель OpenAI Нико Феликс сообщил, что компания временно приостанавливает доступ пользователей к Sora, пока изучает ситуацию.
«Сотни художников в нашей альфа-версии сформировали развитие Sora, помогая определять приоритеты новых функций и средств защиты», — написал Феликс в заявлении от OpenAI. «Участие является добровольным, без обязательств предоставлять обратную связь или использовать инструмент».
Хотя этот поступок называли «утечкой», художники не имели доступа к коду или конфиденциальной информации OpenAI. Они создали публичную веб-страницу, которая позволяла любому использовать доступ к Sora, предоставленный OpenAI художникам для их личного использования и тестирования.
Действия группы являются необычным шагом в индустрии ИИ, где обратная связь от первых тестировщиков строго контролируется компаниями, и резкая критика редко становится публичной. Обычно компании сами выбирают, кто из посторонних получает ранний доступ к системе, в некоторых случаях требуя от этих пользователей подписания соглашений о неразглашении или получения одобрения перед публичным распространением любых изображений, видео или текстовых ответов, сгенерированных системой.
Процесс использования внешнего тестирования, иногда называемый «red teaming» — термин, заимствованный из кибербезопасности — был широко принят в индустрии ИИ, побуждая даже правительственные агентства США следовать аналогичному протоколу безопасности. Однако в последнее время растущее число экспертов по ИИ-безопасности, а теперь и художников, критикуют такой подход за то, что он оказывает сдерживающий эффект на независимые исследования, снижает прозрачность и препятствует ответственности за практики компаний.
Ранее OpenAI заявила, что предоставляет ранний доступ к Sora «командам red team для оценки критических областей вреда или рисков» и «художникам, дизайнерам и кинематографистам для получения обратной связи о том, как продвинуть модель, чтобы она была максимально полезной для творческих людей».
После того как OpenAI приостановила доступ к Sora, группа художников разместила ссылку на сайт, призывающий всех, кто разделяет их взгляды, подписать открытое письмо. Оно собрало почти 100 подписей. Группа, стоящая за постом на Hugging Face, отказалась отвечать на вопросы.
Ещё по теме: