Ведущие мировые некоммерческие организации начали использовать возможности искусственного интеллекта для создания визуальной «нищеты» — постановочных, расово окрашенных сцен бедствия и страданий, которых в действительности никогда не происходило.
В этих мрачных картинах — исхудавшие дети, жмущиеся друг к другу в грязной луже; белые волонтёры, окружённые толпой голодающих африканцев; арабские дети в лагерях беженцев с жестяными мисками в руках. Всё это — не настоящие фотографии, а результаты работы ИИ, который официальные благотворительные учреждения теперь всё чаще применяют в рекламных и кампаниях по сбору средств.
Как отмечает издание Guardian, речь идёт о настоящем буме создания подобной «синтетической нищеты». Главные игроки в секторе, от крупных международных групп до подразделений ООН, активно распространяют несуществующие сцены насилия, нищеты и экологических катастроф, не задумываясь об этических и культурных последствиях.

По словам исследователя Арсения Аленичева из Института тропической медицины, подобные изображения воспроизводят визуальный язык «бедности» — дети с пустыми тарелками, растрескавшаяся почва, избитые стереотипы. ИИ делает бедность даже более абстрактной: если раньше целью подобных фотографий было шокировать жертвователей и вызвать у них желание помочь, то теперь объект помощи становится иллюзией. Это уже не попытка снять реальное страдание, а массовое производство фейков, который дешевле и избавляет кампании от необходимости получать чьё-либо согласие.
Аленичев, автор специальной статьи в журнале The Lancet, называет нынешний этап развития этой практики «порно нищетой 2.0». Он отличает его от классического явления «порно нищеты», появившегося в 2007 году, когда под этим термином стали понимать продающиеся западному зрителю «шоковые» фото реальных страданий с целью стимулировать пожертвования.

В «версии 2.0» даже финансовых и этических затрат на съёмку не требуется: художники фейковой бедности ограничиваются фантазией и командой «сгенерировать». Исследователь собрал уже более сотни таких поддельных изображений, которые используют ныне известные благотворительные организации в своих кампаниях. Среди выделенных примеров — британская Plan International, опубликовавшая ИИ-иллюстрации для проекта против детских браков, а также подразделения ООН, использовавшие сгенерированные «воссоздания» актов сексуального насилия.
Особенно мерзко это смотрится на фоне того, что в реальном мире нет недостатка в настоящих страданиях и обездоленных людях. Поразительно и то, что искусственный интеллект, лежащий в основе, питается той самой неравномерностью распределения богатства и загрязнением окружающей среды, которые многие из подобных организаций на словах и призваны ликвидировать.
Если НКО действительно стремятся покончить с глобальным страданием, им стоит отказаться от фантазий о нищете и подумать, почему люди продолжают оставаться бедными.
Ещё по теме:
- Apple отложила выпуск складного iPad
- OpenAI выпустила браузер ChatGPT Atlas
- Apple предупредила разработчика эксплойтов об атаке на его iPhone