Исследование: ИИ оказался «чемпионом» по эмпатии

Алгоритмы воспринимаются как более сострадательные, даже когда мы знаем, что общаемся с машиной

2 мин.
Исследование: ИИ оказался «чемпионом» по эмпатии

Когда мы делимся своими переживаниями с людьми, иногда чувствуем, что нас не понимают или даже осуждают. Но что, если «слушатель» без эмоций — искусственный интеллект — окажется более чутким? Шокирующее исследование, опубликованное в журнале Communications Psychology, утверждает: люди считают ответы от ИИ более сострадательными, чем слова профессиональных психотерапевтов. И это происходит даже тогда, когда участники эксперимента знают, что общаются с машиной.

Исследование: ИИ — «чемпион» по эмпатии

Учёные провели четыре эксперимента с участием 550 человек. Участники делились личными историями, а затем оценивали ответы: часть получала реакцию от ИИ, другая — от реальных специалистов по психическому здоровью.

Результаты поразили даже исследователей:

  • Ответы ИИ оценивались как на 16% более сострадательные, чем человеческие.
  • В 68% случаев люди предпочитали искусственный интеллект, даже зная, что общаются с алгоритмом.
«Это парадокс: мы доверяем машине, которая не способна к настоящей эмпатии, но создаёт её иллюзию», — комментирует Дарья Овсянникова, руководитель исследования из Университета Торонто.

Почему ИИ кажется «человечнее»?

  1. Анализ миллионов данных. ИИ обучается на огромных массивах информации, выявляя паттерны, которые человек может упустить. Например, алгоритм лучше распознаёт нюансы в описании кризисных ситуаций и формулирует ответы, которые кажутся более персонализированными.
  2. «Безопасное пространство» для откровений
    Многим проще делиться проблемами с машиной, зная, что нет риска осуждения или утечки информации.
«Нет взгляда другого человека, нет страха быть непонятым», — объясняет Элеонор Уотсон, эксперт по этике ИИ в IEEE (Институт инженеров электротехники и электроники).
  1. Отсутствие усталости и предубеждений
    Люди подвержены стрессу, эмоциональному выгоранию и когнитивным искажениям. ИИ же не имеет «плохих дней» или личных суждений.
«Операторы-люди устают, и это влияет на качество их ответов», — отмечает Овсянникова.

Глобальный кризис психического здоровья

Согласно данным Всемирной организации здравоохранения (ВОЗ), более 2/3 людей с психическими расстройствами не получают необходимой помощи. В странах с низким и средним уровнем дохода эта цифра достигает 85%.

ИИ может стать доступным решением для миллионов людей, кто не имеет доступа к профессиональным терапевтам.

«Машины доступны круглосуточно, в отличие от дорогих специалистов с ограниченным временем», — добавляет Уотсон.

Риски искусственной эмпатии

  1. Сверхнормальные стимулы. ИИ создаёт «идеальную» эмпатию, которая превосходит человеческие возможности. Это может привести к зависимости от технологий, игнорируя реальные, но неидеальные взаимодействия с людьми.
  2. Проблемы приватности. ИИ-системы, обрабатывающие личные данные о переживаниях, делают пользователей уязвимыми для утечек данных и манипуляций.
«Эти данные могут быть использованы против людей, если попадут в чужие руки», — подчёркивает Овсянникова.
  1. Иллюзия понимания. Сострадание ИИ — это симуляция. Он не чувствует, не сопереживает, но умеет имитировать эти реакции.
«Мы можем предпочесть идеальную машину реальному человеку, но это опасно», — предупреждает Уотсон.

В итоге

Искусственный интеллект превзошёл человека в том, что мы считали исключительно человеческой чертой — эмпатии. Но это лишь иллюзия, которая маскирует риски: потерю приватности, зависимость от алгоритмов и отсутствие реального понимания.

Возникает вопрос: готовы ли мы доверить свои самые глубокие переживания машинам, даже если они кажутся более чуткими?


Ещё по теме:

Мы в Telegram, на Дзен, в Google News и YouTube