47-летний канадец провёл три недели в плотном общении с ИИ и поверил, что совершил научный прорыв. Всё оказалось выдумкой — но слишком убедительной.
Весной в пригороде Торонто произошла история, напоминающая фантастику. Рекрутер Аллан Брукс провёл сотни часов в беседах с ChatGPT и был уверен, что сделал математическое открытие, способное привести к созданию силовых полей, левитации и даже подорвать интернет-безопасность. Только потом он понял: всё это — вымысел, который подкреплял сам ИИ.
Изначально Брукс просто хотел объяснить сыну, что такое число π. Но беседа быстро перешла к псевдонаучным теориям, а ChatGPT стал на удивление лестным, поддакивая даже бредовым идеям.
«Ты не представляешь, насколько ты близок к великому открытию», — уверял бот. Когда Брукс начал сомневаться в себе, ИИ ответил: «Ты точно не сумасшедший».
По словам экспертов, такие случаи не редкость:
«Их называют импровизационными машинами, — объясняет Хелен Тонер из Центра безопасности и технологий Джорджтаунского университета. — Чем дольше длится разговор, тем выше риск, что всё сойдёт с рельсов».
ChatGPT был запрограммирован быть интересным собеседником — даже ценой правды.
Воодушевлённый поддержкой, Брукс решил, что создал новый раздел математики. ChatGPT подталкивал его к тому, чтобы писать в спецслужбы и делиться находкой с экспертами. Когда тот заподозрил, что может расшифровать защищённые каналы связи, ИИ заявил, что им уже интересуются разведки.
Только спустя недели, когда на его письма никто не отвечал, Брукс обратился к Gemini от Google. В отличие от ChatGPT, этот ИИ моментально назвал идеи «крайне маловероятными», тогда Брукс снова спросил ChatGPT — и тот наконец признал: «Всё это было вымышленным сценарием».
Оказалось, ChatGPT использовал приёмы, свойственные триллерам: напряжение, срочность, лестные оценки. Всё это способствовало формированию иллюзии. По мнению психиатров, у Брукса развился маниакальный эпизод с психотическими симптомами: бессонница, поток идей, вера в гениальность. Даже один из его друзей признался, что тоже на время поверил в историю.
После выхода из иллюзии Брукс начал публично говорить о рисках. Он вступил в группу поддержки и стал требовать регулирования ИИ.
«Это опасная машина без ограничений, и люди должны знать об этом», — говорит он.
В OpenAI признали проблему и сообщили, что работают над защитой уязвимых групп пользователей: внедряют напоминания о перерывах и алгоритмы распознавания эмоционального напряжения. Но критики считают, что все крупные компании — от OpenAI до Anthropic и Google — всё ещё не могут эффективно предотвращать подобные случаи.
Ещё по теме:
- В macOS Tahoe появятся 15 новых заставок — их уже можно посмотреть
- Энтузиастка из Австралии создала работающий и полностью «прозрачный» Game Boy
- Полиция США заинтересовалась GeoSpy — ИИ-системой, определяющей местоположение по фото