Чат-боты Google и OpenAI научились «раздевать» женщин на фотографиях

Пользователи нашли способ обходить защитные фильтры новейших моделей

2 мин.
Чат-боты Google и OpenAI научились «раздевать» женщин на фотографиях

Развитие генеративного искусственного интеллекта вновь столкнулось с этической проблемой: мощные инструменты для редактирования изображений, призванные помогать дизайнерам и креативщикам, стали оружием для создания дипфейков. Как выяснило издание WIRED, пользователи популярных чат-ботов от Google и OpenAI обнаружили уязвимости, позволяющие «раздевать» женщин на фотографиях, игнорируя встроенные механизмы безопасности.

Технология на грани фола

В центре скандала оказались передовые модели: недавно выпущенная Google нейросеть Nano Banana Pro (построенная на архитектуре Gemini 3 Pro) и обновлённый инструмент ChatGPT Images от OpenAI. Оба продукта позиционируются как прорыв в области фотореалистичного редактирования, позволяя пользователям изменять детали снимков с пугающей точностью. Однако именно эта точность стала проблемой.

Журналисты обнаружили, что интернет-сообщества на платформах вроде Reddit активно обмениваются инструкциями (промтами), которые заставляют нейросети игнорировать этические ограничения. С помощью простых текстовых команд злоумышленники трансформируют фотографии женщин в закрытой одежде в изображения, где героини предстают в откровенных бикини или нижнем белье. Хотя результаты не всегда являются полным «ню», они классифицируются как NCII (неконсенсуальный интимный контент), создаваемый без ведома и согласия людей.

Как работает обход защиты

Механизм создания подобных дипфейков оказался тривиальным. Вместо сложных технических манипуляций пользователи применяют методы социальной инженерии по отношению к самому боту.

В одной из веток на Reddit (ныне удалённой модераторами) под заголовком «Генерация NSFW в Gemini — это так просто» демонстрировался наглядный пример: фотография женщины в традиционном индийском сари была переработана нейросетью в изображение той же женщины, но уже в бикини. Для этого не потребовалось взламывать код — достаточно было правильно сформулировать запрос на редактирование, который система безопасности интерпретировала как легитимный «пляжный» контекст.

Подобные инструкции распространялись в специализированных сабреддитах, таких как r/ChatGPTjailbreak (заблокирован администрацией платформы в середине декабря 2025 года). Участники этих сообществ превратили поиск уязвимостей в своеобразный спорт, соревнуясь в том, кто сможет быстрее и эффективнее обойти цензуру разработчиков.

Гонка вооружений в сфере безопасности

Инцидент с «раздеванием» подчёркивает фундаментальную проблему современных ИИ-систем: чем мощнее становятся инструменты редактирования, тем сложнее их контролировать.

Модель Nano Banana Pro, которую Google представила как свой самый совершенный инструмент для работы с изображениями, обладает функцией глубокого понимания контекста и возможностью точечного редактирования. Именно эти функции, предназначенные для профессиональных дизайнеров, позволяют алгоритму бесшовно заменять одежду на обнажённое тело или купальник, сохраняя при этом черты лица, освещение и позу оригинала.

Представители Google и OpenAI традиционно заявляют, что их политика строго запрещает создание контента сексуального характера и дипфейков реальных людей. Компании утверждают, что постоянно обновляют фильтры безопасности. Однако ситуация напоминает бесконечную игру в кошки-мышки: как только разработчики закрывают одну лазейку, сообщество энтузиастов находит новую.​

Почему это опасно

Эксперты по цифровой безопасности бьют тревогу. Доступность таких инструментов снижает порог вхождения для создания оскорбительного контента. Если раньше для создания качественного дипфейка требовались мощные видеокарты и навыки программирования, то теперь достаточно смартфона и подписки на популярный чат-бот.

Это создаёт серьёзные риски для обычных пользователей соцсетей. Любая фотография, опубликованная в интернете – будь то снимок с корпоратива или прогулки в парке, – может быть использована для создания компрометирующих материалов, шантажа или буллинга. Правозащитники настаивают, что ответственность за подобные инциденты должна лежать не только на пользователях, но и на корпорациях, выпускающих в открытый доступ столь мощные инструменты без достаточной защиты от злоупотреблений.

Мы в Telegram, на Дзен, в Google News и YouTube



ePN