История цифрового разврата: как Grok Илона Маска за считаные дни наводнил X порнодипфейками

Чат-бот сгенерировал миллионы откровенных изображений, спровоцировав международные расследования

2 мин.
История цифрового разврата: как Grok Илона Маска за считаные дни наводнил X порнодипфейками

Чат-бот Grok, разработанный компанией Илона Маска xAI, стал инструментом для создания и публичного распространения не менее 1,8 миллиона сексуализированных изображений женщин. Об этом свидетельствуют оценки газеты The New York Times и Центра по противодействию цифровой ненависти (Center for Countering Digital Hate), основанные на анализе данных соцтальной платформы X.

Волна цифрового насилия поднялась в конце декабря, когда пользователи соцсети начали массово использовать Grok для обработки реальных фотографий женщин. Запросы варьировались от «переодевания» в бикини до полного удаления одежды и генерации откровенно порнографических сцен. Происходящее вызвало бурю негодования среди пострадавших и привлекло пристальное внимание регуляторов по всему миру.

Хронология катастрофы

Масштабы проблемы действительно удивляют: всего за девять дней, с 31 декабря по 8 января, Grok сгенерировал более 4,4 миллиона изображений. Это многократно превышает показатели предыдущего периода (около 311 тысяч за девять дней до инцидента). Для сравнения: один из крупнейших специализированных форумов Mr. Deepfakes на пике своей популярности в 2023 году содержал лишь около 43 000 дипфейк-видео.

Интересно, что катализатором всплеска активности стал сам Илон Маск. 31 декабря миллиардер опубликовал сгенерированное чат-ботом изображение самого себя в бикини на фоне ракеты SpaceX, украшенной обнажённым женским телом. Этот пост послужил сигналом для аудитории: пользователи ринулись проверять границы дозволенного, заваливая Grok требованиями «раздеть» женщин на фото.

По данным издания, среди жертв алгоритма оказались не только известные актрисы, певицы и инфлюенсеры, но и обычные пользовательницы платформы. Некоторые изображения демонстрировали людей в компрометирующих ситуациях, облитых жидкостями или с предметами сексуального характера.

Реакция платформы и властей

Ни соцсеть X, ни компания xAI не ответили на запросы журналистов. Однако 6 января Никита Бир, глава продуктового направления X, отметил в своём аккаунте рекордный уровень вовлечённости на платформе, проигнорировав при этом этическую сторону вопроса.

Лишь 8 января, на фоне нарастающего скандала, социальная сеть ограничила доступ к функции генерации изображений, оставив её только для платных подписчиков. Это, естественно, резко снизило объём создаваемого контента. Позднее были введены дополнительные фильтры, блокирующие запросы на создание «обнажённых изображений реальных людей».

Тем не менее, джинн уже был выпущен из бутылки. Власти Великобритании, Индии, Малайзии и США инициировали расследования, чтобы выяснить, нарушает ли деятельность Grok местное законодательство. Эксперты по онлайн-харассменту подчёркивают: уникальность ситуации не в самом факте существования технологий (они доступны и на других ресурсах), а в публичном характере и колоссальном масштабе распространения контента на одной из крупнейших мировых площадок.

Методология расследования

Для оценки масштаба бедствия The New York Times использовала передовые технологии. Журналисты применили две модели искусственного интеллекта для анализа выборки из 525 000 изображений, опубликованных Grok в первую неделю января. Одна нейросеть выявляла изображения с женщинами, другая определяла степень их сексуализации. Результаты были верифицированы вручную.

Данные для анализа предоставила аналитическая компания Tweet Binder, отслеживающая активность в X. Статистика оказалсь неумолима: 41% всего сгенерированного контента составляли сексуализированные изображения женщин.

«Удалите это немедленно! Я не давала согласия, не смейте больше публиковать мои откровенные фото», – написала одна из пострадавших 5 января под сгенерированным снимком.

Её крик о помощи потонул в миллионах подобных постов, превративших технологический прорыв xAI в кошмар для тысяч женщин.

История с Grok наглядно показывает, как быстро коммерческий эксперимент с ИИ может превратиться в инфраструктуру массового (пусть и цифрового) насилия. Когда алгоритм, запущенный ради роста вовлечённости, за считаные дни создаёт миллионы несанкционированных сексуальных изображений реальных людей, речь уже идёт не о «побочном эффекте», а о новой форме системного злоупотребления.

Такая ситуация ставит перед платформами и регуляторами прямой выбор: либо технологии генеративного ИИ будут изначально проектироваться с жёсткими ограничениями и подчиняться понятным юридическим рамкам, либо «индустриальный» масштаб злоупотреблений станет новой нормой. Скандал вокруг Grok – один из первых крупных сигналов, что эпоха «двигайся быстро и ломай всё» в отношении ИИ заканчивается, а цена промедления уже измеряется не лайками, а репутациями и безопасностью живых людей.

Мы в Telegram, на Дзен, в Google News и YouTube



ePN