Развитие генеративного искусственного интеллекта вновь столкнулось с этической проблемой: мощные инструменты для редактирования изображений, призванные помогать дизайнерам и креативщикам, стали оружием для создания дипфейков. Как выяснило издание WIRED, пользователи популярных чат-ботов от Google и OpenAI обнаружили уязвимости, позволяющие «раздевать» женщин на фотографиях, игнорируя встроенные механизмы безопасности.
Технология на грани фола
В центре скандала оказались передовые модели: недавно выпущенная Google нейросеть Nano Banana Pro (построенная на архитектуре Gemini 3 Pro) и обновлённый инструмент ChatGPT Images от OpenAI. Оба продукта позиционируются как прорыв в области фотореалистичного редактирования, позволяя пользователям изменять детали снимков с пугающей точностью. Однако именно эта точность стала проблемой.
Журналисты обнаружили, что интернет-сообщества на платформах вроде Reddit активно обмениваются инструкциями (промтами), которые заставляют нейросети игнорировать этические ограничения. С помощью простых текстовых команд злоумышленники трансформируют фотографии женщин в закрытой одежде в изображения, где героини предстают в откровенных бикини или нижнем белье. Хотя результаты не всегда являются полным «ню», они классифицируются как NCII (неконсенсуальный интимный контент), создаваемый без ведома и согласия людей.
Как работает обход защиты
Механизм создания подобных дипфейков оказался тривиальным. Вместо сложных технических манипуляций пользователи применяют методы социальной инженерии по отношению к самому боту.
В одной из веток на Reddit (ныне удалённой модераторами) под заголовком «Генерация NSFW в Gemini — это так просто» демонстрировался наглядный пример: фотография женщины в традиционном индийском сари была переработана нейросетью в изображение той же женщины, но уже в бикини. Для этого не потребовалось взламывать код — достаточно было правильно сформулировать запрос на редактирование, который система безопасности интерпретировала как легитимный «пляжный» контекст.
Подобные инструкции распространялись в специализированных сабреддитах, таких как r/ChatGPTjailbreak (заблокирован администрацией платформы в середине декабря 2025 года). Участники этих сообществ превратили поиск уязвимостей в своеобразный спорт, соревнуясь в том, кто сможет быстрее и эффективнее обойти цензуру разработчиков.
Гонка вооружений в сфере безопасности
Инцидент с «раздеванием» подчёркивает фундаментальную проблему современных ИИ-систем: чем мощнее становятся инструменты редактирования, тем сложнее их контролировать.
Модель Nano Banana Pro, которую Google представила как свой самый совершенный инструмент для работы с изображениями, обладает функцией глубокого понимания контекста и возможностью точечного редактирования. Именно эти функции, предназначенные для профессиональных дизайнеров, позволяют алгоритму бесшовно заменять одежду на обнажённое тело или купальник, сохраняя при этом черты лица, освещение и позу оригинала.
Представители Google и OpenAI традиционно заявляют, что их политика строго запрещает создание контента сексуального характера и дипфейков реальных людей. Компании утверждают, что постоянно обновляют фильтры безопасности. Однако ситуация напоминает бесконечную игру в кошки-мышки: как только разработчики закрывают одну лазейку, сообщество энтузиастов находит новую.
Почему это опасно
Эксперты по цифровой безопасности бьют тревогу. Доступность таких инструментов снижает порог вхождения для создания оскорбительного контента. Если раньше для создания качественного дипфейка требовались мощные видеокарты и навыки программирования, то теперь достаточно смартфона и подписки на популярный чат-бот.
Это создаёт серьёзные риски для обычных пользователей соцсетей. Любая фотография, опубликованная в интернете – будь то снимок с корпоратива или прогулки в парке, – может быть использована для создания компрометирующих материалов, шантажа или буллинга. Правозащитники настаивают, что ответственность за подобные инциденты должна лежать не только на пользователях, но и на корпорациях, выпускающих в открытый доступ столь мощные инструменты без достаточной защиты от злоупотреблений.