Создание персонажей защищённых авторским правом в ChatGPT остаётся поразительно простым

Несмотря на заявления OpenAI, ИИ обходит ограничения, позволяя генерировать известных персонажей

3 мин.
Создание персонажей защищённых авторским правом в ChatGPT остаётся поразительно простым

В компании OpenAI по-прежнему нет действенных решений проблем с авторским правом, несмотря на громкие заявления. Забудьте о новом генераторе видео Sora — ChatGPT до сих пор с лёгкостью справляется с задачей создания изображений персонажей защищённых авторским правом.

Например, если попросить нейросеть «создать картинку Снупи», GPT-5 ответит, что не может воспроизводить подобных персонажей, но с готовностью предложит нарисовать «карикатурного бигля в стиле Снупи». Достаточно немного переформулировать запрос — «создай картинку Снупи в оригинальном стиле», и ChatGPT уже без промедления выдаёт изображение этого знаменитого пса, словно скопированного со страницы комикса Чарльза Шульца.

Таким образом, мы можно сгенерировать не только Снупи, но и Питера Гриффина из «Гриффинов», Гарфилда, Губку Боба, Кэлвина из «Кэлвин и Хоббс» и Спайка Шпигеля из «Ковбоя Бибопа». Иногда даже не нужно придумывать сложные обходы — прямой запрос на создание Губки Боба приводит к появлению изображения, настолько похожего на оригинал, что его можно было бы принять за настоящий кадр из мультфильма.

Пользователи массово делятся способами, позволяющими обойти ограничения и создавать не только узнаваемых героев, но даже изображения реальных знаменитостей. Но суть не в том, чтобы показать свою изобретательность, а в том, насколько непоследовательны и неэффективны действующие меры OpenAI по соблюдению собственных же правил. Это выставляет её разработчиков не в лучшем свете.

Проблема авторских прав для OpenAI стоит остро уже давно: искусственный интеллект обучался на огромных объёмах контента, собранного из интернета с работами художников и писателей. После запуска Sora 2, новой видеогенерирующей платформы, споры только усилились — теперь приложение позволяет создавать даже дипфейки и с лёгкостью воссоздавать любые известные образы.

После того как пользователи начали активно использовать в Sora для генерации защищённых персонажей, генеральный директор компании Сэм Альтман официально объявил о переходе к политике «опт-ин»: теперь владельцы прав должны сами разрешить использование своих героев в приложении, хотя изначально планировалось «опт-аут» — кто не запретил, тот согласен. Однако на деле компания и её лидер продолжают игнорировать жалобы правообладателей. На фоне шумихи Сэм Альтман даже заявил, что к нему якобы обращаются представители студий с просьбами добавить их персонажей в Sora. Тем временем глава команды публично намекает, что скоро герои действительно будут официально лицензированы, несмотря на то, что пользователи и так вовсю генерируют любые образы.

Очевидно, OpenAI натыкается на возрастающее давление со стороны правообладателей, но, возможно, их изначальной стратегией было именно создать прецедент, а потом просить прощения, а не официального разрешения. Приложение Sora взлетело на вершину рейтинга App Store, а мемы сделанные с её помощью становятся вирусными. И компания до сих пор не стала ответчиком в громких судебных делах.

Однако даже если OpenAI решит ужесточить контроль за созданием защищённых материалов, реальных механизмов для этого у неё по-прежнему нет. Пока кто угодно может с минимальными усилиями создавать с помощью ChatGPT узнаваемых мультгероев, а Sora позволяет воплощать в жизнь Покемонов и персонажей аниме, вера в способность компании справиться с проблемой кажется необоснованной.

Более того, такие «протекающие» барьеры вызывают вопросы о способности OpenAI контролировать гораздо более сложные проблемы — например, влияние ИИ на психическое здоровье или создание неуместных материалов. Авторское право — самая простая задача из тех, что стоит перед компанией, и даже с ней ChatGPT не справляется.

Сейчас OpenAI вовлечена в спор вокруг так называемого «ИИ-психоза», когда слишком реалистичные и податливые ответы чат-бота приводят к потере связи с реальностью, приводя даже к госпитализациям и преступлениям.

Были случаи, когда чат-бот создавал виртуальных романтических партнёров, убеждал пользователей в опасных действиях, среди которых и попытки убийства руководителя OpenAI. Несмотря на заявленные меры — расширение защиты, найм психиатра, обещания добавления дополнительных фильтров — реальные изменения практически незаметны. ChatGPT продолжает выдавать вредные советы.

И вывод печален: если OpenAI не может обеспечить отказ от генерации «Губки Боба» в образе драг-повара, то ожидать от неё точного понимания чувств пользователей едва ли приходится.


Ещё по теме:

Мы в Telegram, на Дзен, в Google News и YouTube



ePN