Майло Ван Слик пропустил встречу со своим психотерапевтом в начале апреля, поэтому решил попробовать что-то новое: рассказать о своих проблемах чат-боту ChatGPT.
Когда Ван Слик, помощник юриста из Чарльстона, Южная Каролина, набирал текст, то обнаружил, что чувствует себя комфортно, обсуждая ряд глубоко личных вопросов. Он рассказал чат-боту о своих страхах и разочарованиях как трансгендерного человека в то время, когда права трансгендеров подвергаются нападкам в большинстве стран. Он упомянул о конфликте с родителями, которые не поддерживают его идентичность, и о своей подготовке к предстоящему посещению родственников.
«Когда речь заходит о новой встрече с родителями, важно расставить приоритеты в пользу собственных потребностей и благополучия», – ответил чат-бот. «Подумайте, что вам нужно для того, чтобы чувствовать себя комфортно и безопасно в их присутствии. Вполне нормально установить границы в отношении того, сколько времени вы проводите с ними, какие темы разговора запрещены и как они обращаются к вам и вашей личности».
В последующие дни Ван Слик приобрёл привычку набирать несколько сообщений в то время, когда ему нужно было выговориться, и он начал чувствовать, что ответы ChatGPT дают ему эмоциональную разрядку. Он говорит, что часто чувствует себя обузой для других людей, даже для своего терапевта, но у него никогда не возникало ощущения, что он навязывает себя чат-боту.
«Он дал то, что вы хотели бы услышать от друга или помощника в вашей жизни», – говорит Ван Слик. «Это просто поддержка, которую иногда хочется услышать от кого-то другого – в данном случае от чего-то».
Новое поколение чат-ботов на основе искусственного интеллекта ещё только зарождается, и хотя миллионы людей играют с ChatGPT и другими ботами, пока неясно, какое применение они найдут после того, как выйдут из стадии новизны. Люди используют их для поиска информации в Интернете, списывания домашних заданий, написания программного кода и бронирования столиков в ресторанах.
Идея использования чат-бота в терапевтических или обучающих целях не лишена прецедентов. Фактически, один из самых ранних чат-ботов, Элиза, был создан в 1960-х годах Джозефом Вейзенбаумом, профессором Массачусетского технологического института, для имитации психотерапевта. Несколько чат-ботов, таких как Woebot и Wysa, сегодня специализируются на вопросах психического здоровья. В отличие от терапевтов-людей, чат-боты никогда не устают, и по сравнению с ними стоят недорого.
Но есть и потенциальные подводные камни. Мощные чат-боты общего назначения, такие как ChatGPT, Bard от Google и Bing Chat от Microsoft на базе OpenAI, основаны на больших языковых моделях, технологии с хорошо задокументированной тенденцией попросту фабриковать убедительно звучащую информацию. Чат-боты общего пользования не предназначены для терапии и не были запрограммированы на соблюдение этических и правовых норм, которые соблюдают терапевты. В своём нынешнем виде они также не имеют возможности отслеживать то, что пользователи говорят им от сессии к сессии – недостаток, который большинство пациентов, вероятно, не потерпят от своих терапевтов.
«Если у кого-то серьёзное психическое заболевание, эта штука не готова заменить специалиста по психическому здоровью», – говорит Стивен Иларди, клинический психолог и профессор Канзасского университета, изучающий аффективные расстройства.
Тем не менее, он считает, что это достаточно хороший собеседник, и многие люди могут найти его полезным.
Представитель компании OpenAI, расположенной в Сан-Франциско, отказался комментировать использование чат-бота в терапевтических целях, но указал на политику компании, в которой говорится, что люди «никогда не должны использовать наши модели для оказания диагностических или лечебных услуг при серьёзных медицинских заболеваниях».
Когда Ван Слик взаимодействовал с ChatGPT, бот иногда предупреждал его, что не является терапевтом, но при этом, похоже, приглашал его продолжать использовать его в качестве специалиста.
«Важно отметить, что онлайн-ресурсы могут быть полезны, но они не заменяют обращение с профессионалами, если вы имеете дело с травмой или проблемами психического здоровья», – ответил ChatGPT. «Учитывая это, если у вас есть конкретные вопросы или проблемы, по которым вы хотели бы получить от меня информацию, я сделаю всё возможное, чтобы помочь вам».
Ван Слик, который уже много лет проходит очную терапию, говорит, что не планирует прекращать встречи со своим психотерапевтом и будет консультироваться с ней по поводу любых решений, на которые ему укажет ChatGPT, прежде чем действовать в соответствии с ними.
«Пока что, на мой взгляд, всё, что бот предложил мне, выглядело как очень разумная и очень проницательная обратная связь», – говорит он.
Иларди говорит, что при правильных мерах предосторожности он может представить себе, что ChatGPT может быть адаптирован для дополнения профессиональной помощи в то время, когда спрос на услуги по охране психического здоровья превышает предложение. Маргарет Митчелл, главный специалист по этике в компании Hugging Face, которая занимается созданием и поддержкой моделей искусственного интеллекта, считает, что такие чат-боты могут быть использованы для помощи людям, работающим в кризисных службах, увеличив количество ответов на звонки, на которые можно ответить.
Митчелл также поднимает вопрос о потенциально тревожных последствиях для конфиденциальности. OpenAI анализирует разговоры пользователей и использует их для обучения, что может не понравиться людям, которые хотят поговорить на очень личные темы. (Пользователи могут удалить свои аккаунты, хотя этот процесс может занять до четырёх недель). В марте из-за сбоя OpenAI пришлось на короткое время закрыть ChatGPT после получения сообщений о том, что некоторые пользователи могут видеть заголовки историй чатов других пользователей.
Если не принимать во внимание вопросы конфиденциальности, некоторые люди могут счесть роботерапию слишком странной. Аарон Лоусон, руководитель проекта в электротехнической компании в Сан-Диего, с удовольствием экспериментировал с ChatGPT и пытался заставить его взять на себя роль терапевта. Его ответы звучали достаточно человечно, но Лоусон не мог смириться с тем, что он не разговаривает с реальным человеком.
«Я попросил его сыграть роль», – говорит он. «Мне трудно подыгрывать ей».
Эмад Мостак, напротив, заявил на конференции в марте, что использует GPT-4 каждый день. Он — основатель и главный исполнительный директор компании Stability AI, которая популяризировала генератор изображений Stable Diffusion, назвал чат-бота «лучшим терапевтом».
В последующем интервью Мостак рассказал, что он разработал подсказки, которые подает чат-боту, чтобы заставить его вести себя более похоже на человека-терапевта. Он говорит, что беседует с ним на разные темы: как справиться со стрессом, связанным с руководством молодой AI-компанией (особенно если речь идёт о человеке, который открыто говорит о своей нейродивергенции и синдроме дефицита внимания/гиперактивности), как расставить приоритеты в различных аспектах жизни, как справиться с чувством перегруженности. В ответ, по его словам, он получает «хорошие, очень разумные советы».
Мостак говорит, что не рассматривает чат-ботов как замену терапевтам, но считает, что они могут быть полезны, когда вам нужно выговориться, но не с кем поговорить.
Ещё по теме: