Четверть британцев ищут психологической поддержи у чат-ботов

ИИ слушает. Люди платят. Общество молчит

2 мин.
Четверть британцев ищут психологической поддержи у чат-ботов

Восемь вечера, диван, пустая квартира. Человек тянется к смартфону написать другу – и останавливается. Набирает сообщение в ChatGPT: «Мне плохо». Ответ приходит через три секунды: взвешенный, без осуждения, без паузы, без неловкости.

Так происходит каждый день с миллионами людей – и это не британская специфика. Это везде, где есть смартфон, интернет и достаточно большое одиночество, чтобы заполнить его алгоритмом.

Цена душевного покоя

Британская благотворительная организация CALM (Campaign Against Living Miserably) опубликовала исследование, результаты которого трудно воспринять спокойно: каждый четвёртый житель Великобритании обращается к ИИ за психологической поддержкой. Среди представителей поколения Z эта цифра достигает 42%. По прогнозам на 2026 год, британцы потратят на приложения для ментального здоровья до 2,3 миллиарда фунтов стерлингов.

Но самый тревожный показатель – не сумма, а то, от чего люди готовы ради этого отказаться. 23% пользователей согласны не платить за отопление, лишь бы сохранить подписку на подобное приложение. 28% – готовы урезать расходы на еду. Когда человек выбирает приложение вместо тепла, это уже не вопрос его отношений с технологией. Это вопрос его отношений со всем остальным.

Алгоритм против терапевта

Звучит провокационно, но данные говорят сами за себя: ИИ воспринимается как более сочувствующий собеседник, чем живой специалист. Исследование, опубликованное в журнале Communications Psychology, выяснило: ответы, сгенерированные искусственным интеллектом, участники оценивали как на 16% более участливые, чем ответы людей, и предпочитали их в 68% случаев – даже зная, что разговаривают с машиной. ИИ не торопится, не отменяет встречи, не отвлекается на собственные проблемы. Идеальный слушатель, у которого нет ни одного из недостатков живого человека – и ни одного из его достоинств.

Риски, однако, вполне осязаемы. Согласно аудиту OpenAI, каждую неделю около 1,2 миллиона пользователей ChatGPT ведут разговоры с явными признаками деструктивных намерений, ещё 560 тысяч демонстрируют симптомы психоза или мании. Исследование Университета Брауна показало: чат-боты систематически нарушают этические стандарты, установленные Американской психологической ассоциацией. Венди Робинсон, директор по сервисам CALM, формулирует позицию однозначно:

«Чат-боты для ментального здоровья – это риск, который мы не можем себе позволить».

Бороться с огнём огнём

Ответом CALM стал неожиданный шаг: организация запустила собственное приложение – CALMzone. Никаких чат-ботов, никакого ИИ, никаких платных подписок. Только инструменты, созданные профессиональными психологами на основе когнитивно-поведенческой терапии, диалектической поведенческой терапии и практик осознанности.

Приложение было разработано компанией Spark Wave на протяжении восьми лет, а затем передано благотворительной организации в дар.

«Наш руководящий принцип: счастье – это право, а не привилегия», – объяснила Робинсон. На фоне рынка, оцениваемого в миллиарды, этот жест выглядит почти как акт сопротивления.

Не баг технологии, а баг общества

Появление рекламы внутри ChatGPT открывает новое измерение проблемы: как защитить человека, доверяющего алгоритму самое уязвимое – свои страхи и переживания, – от того, чтобы он не превратился в мишень для таргетированного маркетинга? Но Робинсон считает, что даже без рекламы суть вопроса иная:

«Если ИИ – единственное место, где люди чувствуют себя услышанными, это социальная проблема, а не просто недостаток системы здравоохранения».

Исследование OpenAI и MIT это подтверждает: люди, которые полчаса в день общаются с ChatGPT, формируют не инструментальную, а реляционную привязанность – своего рода ритуал. У женщин после четырёх недель ежедневного использования заметно снижается тяга к живому общению. ИИ не создаёт одиночество. Но, встретив его, делает нечто жестокое: занимает его целиком, не оставляя места ни для друга, ни для случайного разговора, ни для любой другой связи с живыми людьми.

ИИ не обладает эмпатией – у него есть статистическая модель языка, которая генерирует утешительные фразы. Но если эта модель превосходит 68% людей в том, как передаётся сочувствие, – дефект не в программном обеспечении. Он в операционной системе общества. И это не лечится обновлением.

Мы в Telegram, на Дзен, в Google News и YouTube



ePN