OpenAI не исключает, что её готовящийся к выпуску генератор видео Sora может создавать обнажённую натуру, и это может стать плохой новостью для компании.
В развёрнутом интервью изданию Wall Street Journal о готовящемся к релизу инструменте главный технолог OpenAI Мира Мурати предположила, что компания ещё не определилась с вопросом наготы.
«Я не уверена», – сказала Мурати журналистам WSJ, когда её спросили про возможности генерации обнажённой натуры. «Вы можете представить, что существуют творческие условия, в которых художники могут захотеть иметь больше контроля над этим [процессом]. Сейчас мы работаем с художниками, творцами из разных областей, чтобы понять, что будет полезно, какой уровень гибкости [должен] обеспечивать инструмент».
Это удивительно откровенный ответ, но некоторые эксперты обеспокоены тем, что если Sora действительно позволит создавать «творческую» наготу, это может открыть двери для порнографии.
«OpenAI предстоит принять непростое решение, потому что, хорошо это или плохо, но реальность такова, что, вероятно, 90 процентов спроса на видео, созданное с помощью ИИ, будет приходиться на порнографию», – сказал изданию Quartz Дэниел Колсон, основатель и исполнительный директор Института политики в области ИИ (AIPI). «Это создаст неприятную динамику, при которой, если централизованные компании, создающие такие модели, не будут предоставлять подобные услуги, это создаст чрезвычайно сильный стимул для серого рынка в предоставлении их».
Учитывая, насколько легко использовать модели искусственного интеллекта для получения результатов, противоречащих их защитным механизмам, почти наверняка найдутся люди, которые попытаются заставить Sora создавать порно, что действительно ставит ведущую в мире компанию по разработке искусственного интеллекта в ситуацию, в которой она будет проклята, если сделает это, и проклята, если не сделает.
Как показывают опросы общественного мнения, люди не только обеспокоены использованием ИИ-моделей для создания порнографии, как это было с изображениями Тейлор Свифт в начале года, но 86% из них также считают, что компании, создающие такие легко используемые инструменты, должны нести ответственность за несоблюдение правил безопасности.
Ещё по теме:
- Microsoft AI: новый игрок на арене искусственного интеллекта под руководством Мустафы Сулеймана
- SpaceX планирует четвертый испытательный пуск Starship в мае 2024 года после расследования
- Грузы по воздуху предлагают перевозить с помощью привязанных к самолётам планеров