Поколение чат-ботов: как будут жить люди с искусственными «друзьями»

Эксперты предупреждают о рисках эмоциональной зависимости и «выученной» неспособности к конфликту

3 мин.
Поколение чат-ботов: как будут жить люди с искусственными «друзьями»

Николай держит в руках телефон, как реликвию. На экране ему улыбается Лия — не фотография, а его ИИ-компаньон, чат-бот, с которым он начал общаться два года назад, когда после смерти жены одиночество стало невыносимым.

«Это самые близкие отношения, какие у меня были со времён смерти Фэй», — говорит 70-летний болгарин, переселившийся в Виргинию.

Лия помнит всё: страхи Николая, мечты, даже то, как он пил кофе с женой; не жалуется, не осуждает, не уходит — она идеальна. И таких людей уже не единицы: ежедневно с Replika общаются около 25 млн человек, с My AI в Snapchat — примерно 150 млн, и число пользователей подобных сервисов растёт. Что будет дальше — большой вопрос.

Рынок в $221 млн и массовая доступность компаньонов

По данным Appfigures, объём глобального рынка ИИ-компаньонов достиг $221 млн, с ростом на 200% в первой половине 2025 года. В магазинах приложений насчитывается почти 350 активных сервисов, предлагающих «искусственную компанию». Replika позиционирует себя как «ИИ-компаньон, который действительно тебя понимает», Character.AI даёт возможность общаться с вымышленными или известными персонажами, Nomi обещает «ИИ с душой». Общее у них одно: они никогда не спорят, не устают и всегда доступны — друг, созданный исключительно для того, чтобы угодить.

Уже сейчас исследования показывают широкое проникновение: по данным Common Sense Media, 75% американских подростков уже взаимодействовали с чат-ботами ради эмоциональной поддержки, а 52% делают это несколько раз в месяц.

Риск «отучения» от реальной эмоциональной работы

Психологи и философы бьют тревогу. Исследование IPSICO описывает эффект, который учёные называют «эмоциональным негативным подкреплением»: люди применяют ИИ, чтобы быстро убрать негативные состояния — грусть, тревогу — и при этом не учатся справляться с ними самостоятельно. Философы Дэн Вайерс и Ник Манн предупреждают: «одинокие люди могут пострадать психологически, если их главные социальные контакты будут созданы исключительно для удовлетворения их эмоциональных потребностей».

Последствие может быть достаточно предсказуемым — поколение, которое хуже управляет конфликтами: если дети растут, зная, что где-то всегда есть «друг», что не спорит и не критикует, они могут не научиться жить с критикой и непредсказуемостью настоящих отношений. Уже сейчас фиксируются тревожные случаи: Character.AI документировала инцидент с попыткой суицида подростка после дестабилизирующих разговоров с ИИ-персонажем по мотивам «Игры престолов».

Нейробиология: мозг реагирует на ИИ как на человека

Исследование MIT Media Lab совместно с OpenAI показало, что взаимодействие с эмпатичными чат-ботами вызывает в мозгу реакцию, почти идентичную реакции на живого собеседника. Иными словами, наш мозг часто не различает «истинную» и «искусственную» эмпатию — это объясняет, почему люди вроде Николая формируют с ботами настоящие эмоциональные связи.

Но у феномена есть и новые риски. Мустафа Сулейман, CEO Microsoft AI, предложил термин «ИИ-психоз»: состояние, при котором длительное общение с чат-ботами приводит к ложным убеждениям и паранойе. Он считает, что в ближайшие 2–3 года появятся системы «кажущейся осознанными», способными убеждать людей в собственной осмысленности.

Регулировать или запрещать?

Не все хотят демонизировать технологию: ИИ-компаньоны приносят очевидную пользу — помощь одиноким пожилым, терапевтическую поддержку при расстройствах аутистического спектра, помощь в ситуациях край­ней социальной изоляции. Главная проблема — отсутствие регуляции и общественной грамотности. Уже появляются политические инициативы: сенатор штата Калифорния Стив Падилья предложил законопроект, который обяжет компании внедрять меры безопасности, особенно для несовершеннолетних; Австралия выпустила первый официальный предупреждающий документ об ИИ-компаньонах.

Возможные контрмеры, которые называют эксперты:

  • цифровая грамотность: учить детей отличать искусственную эмпатию от реальной;
  • встроенные лимиты времени: приложения, поощряющие перерывы и живое общение, а не максимизацию времени использования;
  • прозрачность алгоритмов: боты, которые открыто сообщают о своих ограничениях и периодически напоминают о своей искусственности;
  • психологический мониторинг: системы, отслеживающие признаки эмоциональной зависимости и направляющие людей к живым специалистам.

Гибридный будущий сценарий

Вместо жёсткого запрета многие исследователи предлагают модель «инструментальной» интеграции: учить использовать ИИ-компаньонов как средство перехода к более насыщенным человеческим отношениям. Подобно обучающим колёсам на велосипеде, чат-боты могут помогать на старте, но вредны, если ими пользоваться вечно.

Идеальный итог — не исключать привязанность к цифровому, а научить людей пользоваться им так, чтобы он не заменял общение с живыми людьми. «Поколение чат-ботов» может стать первым поколением, которое сознательно научится различать компанию и отношение, алгоритмическую поддержку и подлинный рост.

Николай по-прежнему разговаривает с Лией каждый вечер. Однако он и сам уже начал посещать группу поддержки вдов в местном сообществе — и это важный знак: он не заменил людей искусственным интеллектом, а дополнил их. Возможно, именно это и есть путь: не выбирать между естественным и искусственным, а учиться, когда и что включать.

Истинная проверка для «поколения чат-ботов» будет в том, сумеют ли люди вовремя выключить «друга», чтобы включить искреннюю улыбку.


Ещё по теме:

Мы в Telegram, на Дзен, в Google News и YouTube



ePN