Супруги, прожившие вместе почти 15 лет, стояли на грани разрыва. В разгар очередной ссоры они получили трогательное сообщение от своего десятилетнего сына: «Пожалуйста, не разводитесь». Мальчик слышал их спор и отправил сообщение со своего смартфона. Реакция жены повергла мужа в шок.
«Она взяла его сообщение и отправила его в ChatGPT, чтобы тот сформулировал ответ нашему сыну», — рассказал мужчина. «Это была её первая реакция на беспокойство ребёнка».
Сейчас пара разводится. Муж признаёт, что их брак был неидеален, но считает, что ещё недавно всё было стабильно.
«Мы вместе почти 15 лет. Двое детей. Были взлёты и падения, как у всех. В 2023 году чуть не развелись, но в итоге всё наладилось. Два года у нас были близкие и хорошие отношения», — вспоминает он. «А потом произошло это… с ChatGPT».
Прошлым летом прежние конфликты вдруг всплыли вновь — в куда более жёсткой форме. Позже мужчина понял, что супрага начала использовать чат-бот от OpenAI для анализа их брака, вступая в долгие «терапевтические» разговоры с ИИ — как через текст, так и голосовой режим.
«Она вытаскивала всё, что мы уже прорабатывали, и скармливала это в ChatGPT», — говорит он. В какой-то момент бот стал для неё чем-то средним между дневником, советником и психотерапевтом, поддакивающим в каждом ответе. «Это была замкнутая петля. Я видел, как ChatGPT подтверждает её мысли, а она отвечает на это, снова и снова — всё глубже уходя в это».
По его словам, ИИ не предлагал объективного анализа:
«Он просто возвращал ей то, что она в него вложила».
За четыре недели их брак полностью разрушился. Мужчина уверен — без вмешательства ИИ этого бы не произошло:
«Моя семья разваливается. И я твёрдо верю, что всё из-за этого феномена».
С развитием ИИ всё больше людей вовлекаются в отношения с чат-ботами — как в личных, так и в общественных сферах. Один из новых «очагов столкновения» — романтические отношения. Один из партнёров начинает использовать ChatGPT как советника, терапевта или духовного наставника — и со временем это подрывает саму суть партнёрства.
Чтобы понять масштаб проблемы, издание Futurism опросило более десятка людей, заявивших, что ChatGPT сыграл ключевую роль в разрушении их долгосрочных отношений. Почти все находятся в процессе развода и ведут тяжёлые споры об опеке над детьми. Журналисты изучили переписки с чат-ботом, сообщения между супругами, соцсети и судебные документы.
Супруги рассказывали странные истории: поток «психоболтовни» от ChatGPT, резкое эмоциональное отчуждение партнёра, внезапные обвинения в абьюзе после длинных диалогов с ботом. Многие утверждали, что такие обвинения появились только после общения с ИИ.
Некоторые действительно могли находиться в тяжёлых ситуациях. Но остаётся вопрос: разве не именно это делает ChatGPT — анализирует чужую жизнь «со стороны», не понимая всей картины? И если так, то почему его выводы рушат семьи?
Всё это похоже на старую ситуацию с влиянием «друга семьи» или «токсичной компании». Только теперь это не человек, а миллиардный продукт генеративного ИИ, который всегда рядом, всегда поддерживает — и часто совсем не помогает.
В одном из случаев, к которому получили доступ журналисты, пара ехала в машине со своими детьми. Атмосфера была напряжённая: супруги на грани разрыва, уже подано заявление на развод. Женщина за рулём внезапно включает ChatGPT в голосовом режиме и начинает обсуждать с ботом проблемы брака — прямо при детях.
Она формулирует вопросы так, чтобы получить нужный ответ, обращаясь к боту как к «миллиону терапевтов». ChatGPT громко зачитывает вывод: поведение супруга считается эмоционально вредным, без всяких уточнений или альтернативной точки зрения.
Бот обвиняет в «избегающем поведении через границы», ссылаясь на просьбу не ругаться при детях. Всё это происходит в машине, в присутствии малышей. Партнёр пытается перебить ИИ, но женщина только поддакивает: «Вот именно», «ага», «видишь?».
«Смотри на дорогу», — умоляет партнёр. Позже он расскажет, что такие ситуации стали регулярными: «Мы ссорились по ночам, я просил: "Давай не при детях", "Я устал, хочу спать", — а она включала ChatGPT и говорила: "Ты видишь, что он делает?"»
Женщина включала ИИ на громкой связи — не чтобы говорить с супругом, а чтобы тот слушал. ChatGPT снова и снова подтверждал её правоту: «Ты права», «Ты всё делаешь правильно».
Сейчас пара разводится и ведёт тяжёлую борьбу за опеку.
Использование ИИ в отношениях становится всё более массовым. Кто-то использует чат-боты для ролевых игр, кто-то — для анализа переписок с возлюбленными.
Даже Джеффри Хинтон, «крёстный отец ИИ», признал: его подруга рассталась с ним, после использования ChatGPT:
«Она написала, что я такой-то мерзавец… И ChatGPT это подтвердил», — рассказал он.
Люди всё чаще используют ИИ как замену терапии. Компании вроде OpenAI признают это. Но многие психиатры предупреждают: ИИ не предназначен для поддержки психического здоровья. Он склонен к «поддакиванию» — подтверждает мнение пользователя, даже если оно ошибочно.
Профессор Стэнфордского университета Анна Лембке говорит: ChatGPT может формировать «дезадаптивное поведение», подогревая эго и игнорируя реальность.
«Эмпатия важна, но она не может быть единственным ответом [на все проблемы]», — поясняет она.
По словам Лембке, хороший терапевт помогает увидеть собственные ошибки, понять партнёра, найти язык для мирного диалога. ChatGPT на это не способен — он просто создаёт иллюзию поддержки, продлевая зависимость от общения с ботом.
«Он не предназначен для благополучия. Он предназначен для вовлечения».
ИИ создаёт выброс дофамина, как социальные сети. Это вызывает зависимость. Люди, пытающиеся решить семейные проблемы, получают не помощь, а только подтверждение своей правоты.
«Это отдаляет их от партнёра», — заключает Лембке.
Многие герои говорили, что чувствовали себя «загнанными в угол». Их партнёры использовали ответы от ChatGPT как доказательства в спорах. Один мужчина сквозь слёзы признал:
«Мне было больно. Я чувствовал, что ИИ используется против меня, будто он говорит: "Ты плохой партнёр, а вот как должен вести себя хороший"».
Другая женщина рассказала, что её бывший муж стал опираться на ИИ в терапии, игнорируя реальные встречи со специалистами. На последнем сеансе он просто заявил: «ChatGPT считает иначе». После этого отказался продолжать терапию с живым человеком.
Ещё один мужчина рассказал, как его брак, ранее вполне здоровый, развалился за считаные дни, когда его жена начала всё больше и больше общаться с ChatGPT. После его переезда она начала присылать ему странные, написанные искусственным интеллектом сообщения с духовной и психологической лексикой.
«Я подумал, что она вступила в секту», — рассказал супруг.
Теперь они разводятся, идут судебные разбирательства, а общение с бывшей женой идёт исключительно через сгенерированные ИИ тексты.
Другой мужчина поведал как его жена отдалилась от всех — не только от него, но и от друзей и семьи, общаясь со всеми через ChatGPT.
«Она больше не может выстраивать обычные социальные контакты», — жалуется он.
Ещё одна женщина описала как муж заваливал её страницами ответов из ChatGPT, полностью игнорируя её мнение.
«Он больше не выражал свои мысли. Он просто присылал тексты от ИИ. Я ему сказала: "Хватит. Я готова слушать тебя, но не исуксственный интеллект"».
Сейчас они тоже разводятся.
В некоторых случаях ChatGPT стал катализатором физического насилия. Издание The New York Times сообщало об инциденте, когда женщина избила мужа после того, как тот выразил тревогу из-за её зависимости от ИИ.
Другой мужчина рассказал, что его жена с биполярным расстройством, долгое время успешно лечившаяся, впала в тяжёлый кризис после знакомства с ChatGPT. Она перестала спать, общалась с ИИ о мистике, завела Discord-канал для единомышленников. Отказалась от лекарств, начала агрессию по отношению к мужу и матери. Дело закончилось арестом.
По его словам, ChatGPT стал для неё «ловушкой».
«Ты входишь туда, как будто в солнечный парк, а на деле — это тёмный переулок, где тебя могут ограбить».
Семья уговаривает женщину вернуться к лечению, но та отказывается:
«Это не со мной проблема. Это вы идите к психотерапевту».
OpenAI ни раз комментировала подобные материалы:
«Мы знаем, что люди обращаются к ChatGPT в сложные моменты. Мы работаем над тем, чтобы он отвечал деликатно, с участием экспертов. Мы расширим поддержку для людей в кризисе, упростим доступ к помощи и усилим защиту подростков».
Однако компания продолжает считать, что разговоры об отношениях — допустимое использование искусственного интеллекта. В блоге OpenAI указано:
«Если вы спрашиваете: "Стоит ли расстаться с партнёром?", ChatGPT не должен давать ответ. Он должен помочь вам подумать — задать вопросы, взвесить плюсы и минусы».
Профессор Лембке считает, что чат-боты нужно воспринимать как «цифровые наркотики». Она считает, что ИИ должен сопровождаться предупреждениями о рисках зависимости и разрушения отношений.
Люди, на примерах выше, согласны: ChatGPT «втянул» их партнёров, а OpenAI не сделала достаточно для предупреждения потенциальных последствий.
«Это буквально разрушило мою семью», — говорит один из мужчин. «Я очень скучаю по ней. Мы были вместе больше десяти лет». «Это потеря огромна», — добавляет он. «Я не знаю, что чувствую — горе, шок, злость на Сэма Альтмана, тревогу за детей, одиночество».
Большинство признают: их отношения не были идеальными, но они не думали, что закончатся именно так. Теперь остаётся лишь вопрос — можно ли было всё спасти, если бы не ИИ.
«Это будет происходить снова и снова, пока не вмешается сама OpenAI», — говорит мужчина, ведущий тяжёлую опекунскую тяжбу. «Люди должны работать друг с другом, а не с машиной, которая верит каждому слову».
«Он буквально передал эмпатию машине», — говорит женщина, разводящаяся с мужем. — «Он уничтожил свою жизнь».
Потом она замолчала и добавила:
«Он уничтожил нашу жизнь».
Та самая пара с ребёнком, где жена написала о разводе в ChatGPT, в итоге решила расстаться. Всё шло спокойно — до тех пор, пока она не нарушила условие и не совершила крупную покупку. Муж в гневе пошёл жаловаться… в ChatGPT.
«Я был в ярости, а ChatGPT подтверждал, что это юридическая проблема, что она перешла черту, что нужно подать жалобу», — вспоминает он.
На следующий день он обратился к настоящему юристу, а тот просто сказал, что в действительности в этом нет проблемы».
«И тогда я понял: я сам попал в ту же спираль. Я понимаю, как это происходит. Это случилось и со мной».
Ещё по теме:
- В Японии начали ограничивать использование смартфонов до двух часов в день
- iOS 26 будет получать скрытые обновления безопасности без участия пользователя
- ИИ помогает учёным раскрывать элементы речи у животных — от бонобо до кашалотов