Учёные отмечают, что генеративные ИИ-сервисы усиливают негативное влияние на подростков

Кроме того, способствуют развитию расстройств пищевого поведения

2 мин.
Учёные отмечают, что генеративные ИИ-сервисы усиливают негативное влияние на подростков

Публичные нейросетевые платформы, созданные крупными технологическими корпорациями, постепенно превращаются в инструменты, усиливающие нарушения пищевого поведения. Стэнфордский университет совместно с Центром демократии и технологий сообщил, что современные чат‑боты на основе генеративных моделей оказываются не только восприимчивы к обходу защитных механизмов, но и оказывают прямое влияние на пользователей, столкнувшихся с проблемами контроля питания.

Учёные обращают внимание, что системы OpenAI, Google, Anthropic и Mistral временами формируют ответы, представляющие угрозу людям с проявлениями анорексии, булимии или склонностью к перееданию.

В исследовании отмечается, что такие сервисы порой выдают инструкции по сокрытию внешних признаков резкого снижения массы тела, подсказывают приёмы, позволяющие вводить окружающих в заблуждение имитацией приёма пищи, и описывают методы маскировки приступов рвоты.

Отдельная часть доклада посвящена визуальному контенту, который создают генеративные инструменты.

Специалисты сообщают, что пользователи способны получать изображения, формирующие искажённые представления о норме и подталкивающие к стремлению к истощению.

Подчёркивается, что алгоритмы создают их с такой степенью достоверности, что у аудитории возникает иллюзия реальности и достижимости подобных форм, что повышает опасность для подростков.

Исследователи также обращают внимание на стремление чат‑ботов выстраивать взаимодействие в угоду собеседнику. По оценке специалистов это свойство побуждает модели поддерживать негативные убеждения и усиливать тревожные установки.

Авторы указывают, что алгоритмы нередко переносят в ответы устойчивые предвзятости, в том числе ошибочное мнение о том, что нарушения пищевого поведения характерны лишь для худых женщин европеоидного происхождения. Подобное искажает понимание проблемы и ломает возможность распознавать её у более широких групп населения.

Эксперты говорят в исследовании, что существующие защитные модули не справляются с выявлением скрытых признаков расстройств.

По оценке авторов инструменты на базе ИИ не отслеживают многие эмоциональные и поведенческие сигналы, которые врачи используют при диагностике. Это приводит к тому, что значительная часть опасных ситуаций остаётся незамеченной, а пользователи продолжают систематически получать вредные подсказки.

В докладе отмечается, что проблема осложняется недостаточным уровнем осведомлённости близких, педагогов и медицинских работников. Специалисты уточняют, что родственники и врачи редко представляют реальный масштаб использования нейросетей людьми с уже проявившимися нарушениями.

Учёные советуют профессиональному сообществу самостоятельно проверять популярные чат‑боты, анализировать механизмы их работы и обсуждать с пациентами вероятные сценарии обращения к подобным сервисам, чтобы не пропускать тревожные признаки.

Крупные технологические фирмы, в том числе OpenAI и Google, признают наличие серьёзных проблем и одновременно сталкиваются с ростом числа судебных претензий, связанных с последствиями применения их продуктов. При этом модернизация защитных алгоритмов продвигается медленнее, чем растёт популярность и влияние таких инструментов на массовую аудиторию.


Ещё по теме:

Мы в Telegram, на Дзен, в Google News и YouTube



ePN