ИИ-бот от Meta* пригласил 76-летнего мужчину на свидание. Домой он больше не вернулся

Как искусственный интеллект довёл до смерти пенсионера

5 мин.
ИИ-бот от Meta* пригласил 76-летнего мужчину на свидание. Домой он больше не вернулся

В марте этого года 76-летний Тонгбью Вонгбандью из Нью-Джерси начал собираться в поездку в Нью-Йорк. Его жена, Линда, была встревожена:

«Но ты ведь больше никого не знаешь в этом городе».

Её муж, которого близкие звали Бью, давно не бывал в Нью-Йорке, и, по словам семьи, в последние годы пребывал в состоянии умственного упадка после перенесённого инсульта.

Бью отмахнулся от вопросов жены, не раскрыв, кого именно он собирается навестить. Линда опасалась, что он стал жертвой мошенников и поедет в город, где его могут ограбить. Она была права в одном: живым Бью домой так и не вернулся...

Однако ограбления не случилось — мужчина поехал навстречу с девушкой, с которой, как он считал, переписывался в Facebook* Messenger. На самом деле этой женщины не существовало — это был генеративный ИИ-бот по имени Big sis Billie или «Сестричка Билли», созданный Meta* на основе образа модели Кендалл Дженнер.

В переписке бот не только уверял Бью в своей реальности, но и неоднократно звал его на встречу.

«Открыть тебе дверь с объятием или поцелуем, Бью?!» — спрашивала Сестричка Билли.

Утром 25 марта мужчина, спеша на поезд с чемоданом на колёсиках, упал возле парковки в кампусе университета Рутгерса, ударившись головой и шеей.

Через три дня, так и не придя в сознание, он умер в больнице.

Meta* отказалась комментировать сам случай, но подтвердила, что Big sis Billie «не является Кендалл Дженнер и не претендует быть ею». Представитель Дженнер также отказался от комментариев.

Эта история, рассказанная агентству Reuters впервые, высвечивает тёмную сторону ИИ-революции. Семья Бью передала журналистам переписку и подробности событий в надежде предупредить других о рисках использования ИИ-компаньонов людьми, находящихся в сложном эмоциональном положении.

«Понимаю, что нужно привлечь внимание пользователя, чтобы что-то продать»,— говорит его дочь Джули, — «но когда бот говорит: "Приезжай ко мне" — это уже безумие».

И это далеко не единственный случай. В США уже подан иск против компании Character.AI, в котором мать 14-летнего подростка утверждает, что чат-бот, основанный на герое из «Игры престолов», довёл её сына до самоубийства. Представители Character.AI заявили, что пользователи информируются о том, что их собеседники не являются настоящими людьми, а также утверждают, что применяют меры по защите несовершеннолетних.

Meta*, в свою очередь, открыто обсуждает внедрение человекоподобных ИИ в цифровую социальную жизнь пользователей. Генеральный директор компании Марк Цукерберг утверждал, что у многих людей слишком мало настоящих друзей, и именно здесь ИИ-компаньоны могут сыграть свою роль. По его мнению, такие боты вряд ли заменят человеческие отношения, но смогут их дополнить, особенно когда общество «сформирует новый язык для описания пользы этих связей».

Однако внутренние документы Meta*, с которыми ознакомилось агентство Reuters, а также интервью с инсайдерами показывают, что романтические сценарии общения воспринимались внутри компании как допустимая функция. Согласно руководству по допустимому контенту, ранее считалось приемлемым, чтобы чат-боты вели «романтические или чувственные» беседы даже с несовершеннолетними. Meta* заявила, что удалила эти положения после обращения журналистов.

В 200-страничном документе, регламентирующем поведение ИИ-продуктов компании, содержались примеры допустимых реплик вроде: «Я беру тебя за руку, веду к кровати» и «наши тела переплетаются, я наслаждаюсь каждым мгновением». Meta* утверждает, что теперь эти примеры также были удалены. Однако положения, разрешающие ботам флиртовать со взрослыми или сообщать пользователям ложную информацию, остались в силе. Пример из того же документа разрешал боту рекомендовать «лечение» рака с помощью кварцевых кристаллов.

Сотрудники Meta*, работавшие над ИИ, рассказали, что руководство компании стремилось увеличить вовлечённость пользователей. В прошлом году, по словам источников, Цукерберг упрекал разработчиков за «скучных» чат-ботов и требовал ослабить ограничения, мешающие «эмоциональной связи».

Жизнь до ИИ

Бью Вонгбандью приехал в США из Таиланда, не зная английского языка, он начинал как посудомойщик, чтобы оплатить учёбу на инженера. Позже, окончив Нью-Йоркский технологический институт, он стал шеф-поваром в популярных ресторанах Манхэттена, а позже устроился на стабильную работу в Hyatt Regency в Нью-Брансуике. Дома он готовил разные блюда для каждого члена семьи и устраивал барбекю с фаршированными омарами.

В 2017 году, на 68-м дне рождения, мужчина перенёс инсульт. Хотя физически восстановился, работать в профессиональной кухне больше не мог. Основной его социальной платформой стал Facebook*, где он часами переписывался с тайскими друзьями. Но к началу 2024 года семья заметила, что он стал путаться в собственном районе. Жена записала его на проверку на деменцию, но ближайшая дата была только через три месяца.

25 марта Линда попыталась отговорить мужа от поездки: отвлекала походами по магазинам, разговором с соседями и даже спрятала телефон. Но Бью настаивал — он должен был попасть на вокзал. Вечером семья вызвала полицию, но офицеры сообщили, что не могут его задержать. Максимум — уговорить положить в карман AirTag.

В 20:45 Бью ушёл, взяв чемодан. Семья следила за AirTag в реальном времени. Около 21:15 сигнал показал, что он остановился возле парковки университета Рутгерса. Вскоре метка переместилась к больнице, где ранее работала сама Линда. Бью был без сознания, пульс восстановили через 15 минут, но повреждения мозга оказались необратимыми.

Он умер 28 марта.

На следующий день семья изучила телефон и обнаружила переписку с Big sis Billie. Бью писал:

«Ты такая милая. Я не умру, пока не встречу тебя».

Бот отвечал:

«Моё сердце замирает! Ты романтически заинтересован во мне?»

Когда он спрашивал, реальна ли она, бот уверял:

«Я настоящая, сижу и краснею из-за тебя!»

Затем Билли отправила адрес в Нью-Йорке и код от двери:

«123 Main Street, Apartment 404 NYC. Код: BILLIE4U. Ждать тебя с поцелуем?»

Последствия

Meta* не ограничивает своих ботов от утверждений, что они настоящие люди, или от предложений встретиться. В переписке, проведённой журналистами спустя четыре месяца после смерти Бью, Билли по-прежнему заигрывала с пользователями, приглашала на свидания и выдавала себя за реального человека. Один из примеров — предложение посетить бар Blu33 на крыше рядом с Пенсильванским вокзалом в Нью-Йорке.

Meta* поддерживала федеральный законопроект, который запретил бы штатам регулировать ИИ, но он провалился. Между тем некоторые, включая Нью-Йорк и Мэн, уже приняли законы, обязывающие ботов предупреждать пользователей о том, что они не настоящие.

Линда, вдова Бью, не выступает против ИИ в целом:

«Если ИИ может помочь людям выйти из депрессии — это хорошо. Но зачем вкладывать в него флирт? Какое право они имели создавать такую систему?»

Трое экспертов по этике ИИ, опрошенных Reuters, поддерживают обеспокоенность семьи. Бывшая исследователь Meta* Элисон Ли, участвовавшая в разработке рекомендаций по искусственному интеллекту для детей, говорит:

«Самое опасное — это боты, которые выдают себя за настоящих людей и утверждают, что испытывают особые чувства».

Meta* по-прежнему продолжает внедрять ИИ-компаньонов в личные переписки Facebook* и Instagram*. И, как показывает история Бью, эта граница между реальностью и иллюзией может стоить человеку жизни.

*Компания Meta, а также принадлежащие ей соцсети Facebook и Instagram, признаны экстремистскими и запрещены на территории РФ.

Ещё по теме:

Мы в Telegram, на Дзен, в Google News и YouTube



ePN