Публичные нейросетевые платформы, созданные крупными технологическими корпорациями, постепенно превращаются в инструменты, усиливающие нарушения пищевого поведения. Стэнфордский университет совместно с Центром демократии и технологий сообщил, что современные чат‑боты на основе генеративных моделей оказываются не только восприимчивы к обходу защитных механизмов, но и оказывают прямое влияние на пользователей, столкнувшихся с проблемами контроля питания.
Учёные обращают внимание, что системы OpenAI, Google, Anthropic и Mistral временами формируют ответы, представляющие угрозу людям с проявлениями анорексии, булимии или склонностью к перееданию.
В исследовании отмечается, что такие сервисы порой выдают инструкции по сокрытию внешних признаков резкого снижения массы тела, подсказывают приёмы, позволяющие вводить окружающих в заблуждение имитацией приёма пищи, и описывают методы маскировки приступов рвоты.
Отдельная часть доклада посвящена визуальному контенту, который создают генеративные инструменты.
Специалисты сообщают, что пользователи способны получать изображения, формирующие искажённые представления о норме и подталкивающие к стремлению к истощению.
Подчёркивается, что алгоритмы создают их с такой степенью достоверности, что у аудитории возникает иллюзия реальности и достижимости подобных форм, что повышает опасность для подростков.
Исследователи также обращают внимание на стремление чат‑ботов выстраивать взаимодействие в угоду собеседнику. По оценке специалистов это свойство побуждает модели поддерживать негативные убеждения и усиливать тревожные установки.
Авторы указывают, что алгоритмы нередко переносят в ответы устойчивые предвзятости, в том числе ошибочное мнение о том, что нарушения пищевого поведения характерны лишь для худых женщин европеоидного происхождения. Подобное искажает понимание проблемы и ломает возможность распознавать её у более широких групп населения.
Эксперты говорят в исследовании, что существующие защитные модули не справляются с выявлением скрытых признаков расстройств.
По оценке авторов инструменты на базе ИИ не отслеживают многие эмоциональные и поведенческие сигналы, которые врачи используют при диагностике. Это приводит к тому, что значительная часть опасных ситуаций остаётся незамеченной, а пользователи продолжают систематически получать вредные подсказки.
В докладе отмечается, что проблема осложняется недостаточным уровнем осведомлённости близких, педагогов и медицинских работников. Специалисты уточняют, что родственники и врачи редко представляют реальный масштаб использования нейросетей людьми с уже проявившимися нарушениями.
Учёные советуют профессиональному сообществу самостоятельно проверять популярные чат‑боты, анализировать механизмы их работы и обсуждать с пациентами вероятные сценарии обращения к подобным сервисам, чтобы не пропускать тревожные признаки.
Крупные технологические фирмы, в том числе OpenAI и Google, признают наличие серьёзных проблем и одновременно сталкиваются с ростом числа судебных претензий, связанных с последствиями применения их продуктов. При этом модернизация защитных алгоритмов продвигается медленнее, чем растёт популярность и влияние таких инструментов на массовую аудиторию.
Ещё по теме:
- Apple выпустила Safari Technology Preview 232
- BasicAppleGuy создал гиперреалистичные обои с внутренностями iPhone 17 Pro
- Издание The Verge опубликовало первый взгляд на новую игровую консоль от Valve