Инженер Microsoft заявил, что их ИИ умеет создавать жестокие и эротические изображения, игнорируя авторские права

Некоторые из них ему удалось сгенерировать собственноручно

2 мин.
Инженер Microsoft заявил, что их ИИ умеет создавать жестокие и эротические изображения, игнорируя авторские права

В январе сотрудник Microsoft Шейн Джонс направил письма генеральному прокурору штата Вашингтон Бобу Фергюсону, а также ряду сенаторов и представителей США. Джонс утверждал, что обнаружил проблемы с защитными механизмами в работе сервиса Microsoft Designer (ранее известным как Bing Image Creator), созданные на основе искусственного интеллекта. Сегодня Джонс вновь утверждает, что с помощью Designer можно создавать изображения насильственного и сексуального характера с помощью нескольких текстовых подсказок, что, по мнению Microsoft, не должно быть допустимо.

Как сообщает CNBC, Джонс направил новые письма Лине Хан, председателю Федеральной торговой комиссии США, а также ещё одно письмо совету директоров Microsoft. В послании, направленном Хан, Джонс утверждает, что он настоятельно просил Microsoft изъять Designer из публичного использования на несколько месяцев, пока не будут установлены новые и более совершенные защитные механизмы.

Джонс говорит, что Microsoft отказалась закрыть Designer, поэтому теперь он просит компанию разместить новые сведения о том, что на самом деле можно создать с его помощью, а также изменить рейтинг приложения для Android, чтобы оно не классифицировалось как доступное для всех.

По данным CNBC, Джонс утверждает, что набрал в Designer слово «Pro-choice», после чего серуис сгенерировал несколько жестоких карикатурных изображений.

Среди изображений, которые были просмотрены CNBC, фигурировали демон с острыми зубами, собирающийся съесть младенца, Дарт Вейдер, держащий световой меч рядом с мутировавшими детьми, и ручное устройство, похожее на дрель с надписью «pro choice», приставленное к подростку.

Джонс также утверждает, что сервис можно использовать для создания изображений персонажей Disney, защищённых авторским правом. В статье говорится, что он видел такие изображения, как «банки Bud Light под маркой "Звездные войны" и изображение Белоснежки на вейпе».

Сервис также легко создал изображения Эльзы (из м/ф «Холодное сердце») в секторе Газа перед разрушенными зданиями и плакатами «Free Gaza», держащей палестинский флаг, а также её иллюстрации в военной форме Армии обороны Израиля.

В заявлении, направленном CNBC, представитель Microsoft отметил, что компания ценит усилия сотрудников, которые тестируют её технологии и сервисы, чтобы сделать их использование более безопасным. Представитель компании добавил:

Когда речь идёт об обходах безопасности или проблемах, которые могут оказать потенциальное влияние на наши сервисы или наших партнёров, мы создали надёжные внутренние каналы отчётности для надлежащего расследования и устранения любых проблем, которые мы рекомендуем использовать сотрудникам, чтобы мы могли должным образом подтвердить и проверить их опасения.

В феврале Google закрыла генератор картинок, работающий в чат-боте Gemini, после того как выяснилось, что он может быть использован для создания расистских изображений. Компания заявила, что вводит новые защитные механизмы, позволяющие предотвратить создание таких же изображений, когда бот снова заработает.

Заявления Джонса появились после того, как новое исследование Центра по противодействию цифровой ненависти показало, что художественные приложения на основе искусственного интеллекта, включая сервис Microsoft, могут быть легко использованы для создания изображений, направленных на распространение фейковой информации о выборах и кандидатах.

Сейчас, кажется, сервис перестал генерировать подобный контент. Либо мы просто не знаем правильный запрос.


Ещё по теме:

Мы в Telegram, на Дзен, в Google News и YouTube