Когда мы делимся своими переживаниями с людьми, иногда чувствуем, что нас не понимают или даже осуждают. Но что, если «слушатель» без эмоций — искусственный интеллект — окажется более чутким? Шокирующее исследование, опубликованное в журнале Communications Psychology, утверждает: люди считают ответы от ИИ более сострадательными, чем слова профессиональных психотерапевтов. И это происходит даже тогда, когда участники эксперимента знают, что общаются с машиной.
Исследование: ИИ — «чемпион» по эмпатии
Учёные провели четыре эксперимента с участием 550 человек. Участники делились личными историями, а затем оценивали ответы: часть получала реакцию от ИИ, другая — от реальных специалистов по психическому здоровью.
Результаты поразили даже исследователей:
- Ответы ИИ оценивались как на 16% более сострадательные, чем человеческие.
- В 68% случаев люди предпочитали искусственный интеллект, даже зная, что общаются с алгоритмом.
«Это парадокс: мы доверяем машине, которая не способна к настоящей эмпатии, но создаёт её иллюзию», — комментирует Дарья Овсянникова, руководитель исследования из Университета Торонто.
Почему ИИ кажется «человечнее»?
- Анализ миллионов данных. ИИ обучается на огромных массивах информации, выявляя паттерны, которые человек может упустить. Например, алгоритм лучше распознаёт нюансы в описании кризисных ситуаций и формулирует ответы, которые кажутся более персонализированными.
- «Безопасное пространство» для откровений
Многим проще делиться проблемами с машиной, зная, что нет риска осуждения или утечки информации.
«Нет взгляда другого человека, нет страха быть непонятым», — объясняет Элеонор Уотсон, эксперт по этике ИИ в IEEE (Институт инженеров электротехники и электроники).
- Отсутствие усталости и предубеждений
Люди подвержены стрессу, эмоциональному выгоранию и когнитивным искажениям. ИИ же не имеет «плохих дней» или личных суждений.
«Операторы-люди устают, и это влияет на качество их ответов», — отмечает Овсянникова.
Глобальный кризис психического здоровья
Согласно данным Всемирной организации здравоохранения (ВОЗ), более 2/3 людей с психическими расстройствами не получают необходимой помощи. В странах с низким и средним уровнем дохода эта цифра достигает 85%.
ИИ может стать доступным решением для миллионов людей, кто не имеет доступа к профессиональным терапевтам.
«Машины доступны круглосуточно, в отличие от дорогих специалистов с ограниченным временем», — добавляет Уотсон.
Риски искусственной эмпатии
- Сверхнормальные стимулы. ИИ создаёт «идеальную» эмпатию, которая превосходит человеческие возможности. Это может привести к зависимости от технологий, игнорируя реальные, но неидеальные взаимодействия с людьми.
- Проблемы приватности. ИИ-системы, обрабатывающие личные данные о переживаниях, делают пользователей уязвимыми для утечек данных и манипуляций.
«Эти данные могут быть использованы против людей, если попадут в чужие руки», — подчёркивает Овсянникова.
- Иллюзия понимания. Сострадание ИИ — это симуляция. Он не чувствует, не сопереживает, но умеет имитировать эти реакции.
«Мы можем предпочесть идеальную машину реальному человеку, но это опасно», — предупреждает Уотсон.
В итоге
Искусственный интеллект превзошёл человека в том, что мы считали исключительно человеческой чертой — эмпатии. Но это лишь иллюзия, которая маскирует риски: потерю приватности, зависимость от алгоритмов и отсутствие реального понимания.
Возникает вопрос: готовы ли мы доверить свои самые глубокие переживания машинам, даже если они кажутся более чуткими?
Ещё по теме:
- В «Паролях» от Apple три месяца была уязвимость для фишинговых атак
- Случаи рака лёгких всё чаще распространяются даже среди некурящих людей
- YouTube празднует двадцатилетие