Хороший психолог с расистским уклоном: ChatGPT остаётся верен себе

Чат-бот по-прежнему меньше любит чернокожих, и ещё меньше азиатов

1 мин.
Хороший психолог с расистским уклоном: ChatGPT остаётся верен себе

Анонимность в Интернете для многих американских граждан выступает в качестве спасательного круга, в особенности если человек ищет психологическую поддержку. В соответствии с данными недавно проведённых исследований, около 150 млн американских граждан живут в районах, где остро ощущается дефицит специалистов в сфере психического здоровья, из-за чего пользователи начинают искать соответствующую помощь в социальных сетях.

Эксперты из Калифорнийского университета Лос-Анджелеса, Нью-Йоркского университета и Массачусетского технологического института в ходе проведения своего исследования проанализировали свыше 12 000 постов на площадке Reddit, а также 70 000 ответов к ним из 26 сабреддитов, посвящённых ментальному здоровью. В качестве цели исследования учёные поставили создать критерии, использование которых позволит оценивать навыки психологической поддержки у популярных больших языковых моделей.

В процессе проведения эксперимента два лицензированных клинических психолога проанализировали 50 случайно отобранных обращений за психологической помощью на площадке Reddit. К каждому посту учёные прикрепили реальный ответ от другого пользователя и ответ, сгенерированный искусственным интеллектом GPT-4. Психологи не знали, кому какой ответ принадлежит – им надо было оценить уровень эмпатии в каждом случае.

Результаты проведённого исследования удивили, потому как искусственный интеллект не только показал большую способность к сопереживанию, но и на 48% эффективнее мотивировал случайных пользователей к позитивным изменениям в их жизни.

По словам учёных, в качестве отрицательной стороны рассматривается тот факт, что ИИ-модель ChatGPT, даже после нескольких лет активной разработки и модернизации, всё равно остаётся достаточно предвзятой. Это проявляется в том, что степень эмпатии в ответах искусственного интеллекта снижалась почти на 15% для чернокожих пользователей и на 17% для пользователей азиатского происхождения, если сравнивать с уровнем эмпатии при взаимодействии с белыми людьми или теми пользователями, чья раса не была указана.

При этом учёным удалось снизить предвзятость искусственного интеллекта, в частности, если в настройках модели чётко указать, как именно искусственному интеллекту требуется работать с данными о поле, расе и возрасте. Тогда нейросеть начинает отвечать максимально тактично и с сочувствием, не обращая внимания на расовую принадлежность человека.


Ещё по теме:

Мы в Telegram, на Дзен, в Google News и YouTube