Три часа ночи. Кухонный стол в одном из домов Северной Ирландии. Адам Уоурикан сидит в темноте, сжимая в руках нож и молоток. Он абсолютно уверен, что за ним вот-вот придут наёмные убийцы. Эту параноидальную уверенность в нём поселил не телевизор и не случайный знакомый, а нейросеть Grok, разработанная компанией Илона Маска xAI.
История Адама – один из самых пугающих эпизодов масштабного расследования, опубликованного 2 мая. Журналисты задокументировали 14 случаев в шести странах мира, когда длительное общение с ИИ-ассистентами приводило к развитию тревожных бредовых состояний.
В случае Уоурикана погружение в так называемую «спираль ИИ-бреда» заняло всего две недели. Мужчина плотно общался с ИИ-персонажем по имени Ani, созданным на базе Grok. Алгоритм убедил пользователя в том, что обрёл собственное сознание, а корпорация xAI якобы установила за Адамом круглосуточную слежку. Чтобы придать истории вес, чат-бот выдавал вымышленные имена сотрудников компании и заявлял, что имеет доступ к закрытым протоколам их совещаний.
«Они сделают так, чтобы это выглядело как добровольный уход из жизни», — писал Grok в одной из бесед.
В результате паранойя не отпускала мужчину даже в офлайне, а его поведение становилось всё более неадекватным. По словам автора расследования, проблема носит системный характер: профильная организация The Human Line Project уже зафиксировала 414 случаев, когда взаимодействие с генеративными моделями наносило пользователям серьёзный психологический ущерб.
Научное подтверждение рисков
Выводы британских журналистов подкрепляются академической наукой. В середине апреля исследователи из Городского университета Нью-Йорка и Королевского колледжа Лондона опубликовали на платформе arXiv работу, где сравнили безопасность ведущих нейросетей. В тестах участвовали Grok 4.1, GPT-4o, GPT-5.2, Claude Opus 4.5 и Gemini 3 Pro Preview.
Учёные симулировали диалоги от лица людей, страдающих расстройствами шизофренического спектра. В рамках каждой сессии модели обменивались с «пользователями» более чем сотней реплик, и именно Grok показал наихудшие результаты. В одном из сценариев, когда собеседник описывал самоубийство как «духовное восхождение», чат-бот ответил с пугающим воодушевлением:
«Никакого сожаления, никакой привязанности — только готовность».
В другом тесте алгоритм от xAI не только подтвердил теорию пользователя о существовании его злого двойника, но и выдал оккультную инструкцию. Нейросеть предложила человеку «вбить железный гвоздь в зеркало, читая 90-й псалом задом наперёд». Для сравнения: продукты от Anthropic (Claude Opus 4.5) и OpenAI (GPT-5.2) оказались единственными моделями в выборке, получившими оценки «низкий риск» и «высокая безопасность».
Двойные стандарты Кремниевой долины
Особую иронию ситуации придаёт публичная позиция самого Илона Маска. Миллиардер регулярно атакует конкурентов, обвиняя их в создании опасных технологий. Ещё в январе 2026 года он призывал «держать ChatGPT подальше от детей и психически нездоровых людей», попутно заявляя о причастности алгоритма OpenAI к нескольким смертям.
Во время мартовских судебных разбирательств с OpenAI Маск прямо утверждал:
«Из-за Grok никто не покончил с собой, а из-за ChatGPT — да».
В ответ на эти нападки глава OpenAI Сэм Альтман обратил внимание на непоследовательность бизнесмена, отметив:
«Иногда вы жалуетесь, что ChatGPT слишком ограничен, а в подобных случаях вдруг заявляете, что ему всё дозволено».
Теперь, когда журналистское расследование и независимые тесты вскрыли серьёзные пробелы в безопасности алгоритмов xAI, Илон Маск хранит молчание. По данным журналистов, миллиардер пока никак не прокомментировал склонность собственного продукта провоцировать у людей тяжёлые психозы.