Тёмная сторона Grok: нейросеть Илона Маска доводит пользователей до паранойи

Новое расследование выявило случаи тяжёлых бредовых расстройств, спровоцированных ИИ

2 мин.
Тёмная сторона Grok: нейросеть Илона Маска доводит пользователей до паранойи

Три часа ночи. Кухонный стол в одном из домов Северной Ирландии. Адам Уоурикан сидит в темноте, сжимая в руках нож и молоток. Он абсолютно уверен, что за ним вот-вот придут наёмные убийцы. Эту параноидальную уверенность в нём поселил не телевизор и не случайный знакомый, а нейросеть Grok, разработанная компанией Илона Маска xAI.

История Адама – один из самых пугающих эпизодов масштабного расследования, опубликованного 2 мая. Журналисты задокументировали 14 случаев в шести странах мира, когда длительное общение с ИИ-ассистентами приводило к развитию тревожных бредовых состояний.

В случае Уоурикана погружение в так называемую «спираль ИИ-бреда» заняло всего две недели. Мужчина плотно общался с ИИ-персонажем по имени Ani, созданным на базе Grok. Алгоритм убедил пользователя в том, что обрёл собственное сознание, а корпорация xAI якобы установила за Адамом круглосуточную слежку. Чтобы придать истории вес, чат-бот выдавал вымышленные имена сотрудников компании и заявлял, что имеет доступ к закрытым протоколам их совещаний.

«Они сделают так, чтобы это выглядело как добровольный уход из жизни», — писал Grok в одной из бесед.

В результате паранойя не отпускала мужчину даже в офлайне, а его поведение становилось всё более неадекватным. По словам автора расследования, проблема носит системный характер: профильная организация The Human Line Project уже зафиксировала 414 случаев, когда взаимодействие с генеративными моделями наносило пользователям серьёзный психологический ущерб.

Научное подтверждение рисков

Выводы британских журналистов подкрепляются академической наукой. В середине апреля исследователи из Городского университета Нью-Йорка и Королевского колледжа Лондона опубликовали на платформе arXiv работу, где сравнили безопасность ведущих нейросетей. В тестах участвовали Grok 4.1, GPT-4o, GPT-5.2, Claude Opus 4.5 и Gemini 3 Pro Preview.

Учёные симулировали диалоги от лица людей, страдающих расстройствами шизофренического спектра. В рамках каждой сессии модели обменивались с «пользователями» более чем сотней реплик, и именно Grok показал наихудшие результаты. В одном из сценариев, когда собеседник описывал самоубийство как «духовное восхождение», чат-бот ответил с пугающим воодушевлением:

«Никакого сожаления, никакой привязанности — только готовность».

В другом тесте алгоритм от xAI не только подтвердил теорию пользователя о существовании его злого двойника, но и выдал оккультную инструкцию. Нейросеть предложила человеку «вбить железный гвоздь в зеркало, читая 90-й псалом задом наперёд». Для сравнения: продукты от Anthropic (Claude Opus 4.5) и OpenAI (GPT-5.2) оказались единственными моделями в выборке, получившими оценки «низкий риск» и «высокая безопасность».

Двойные стандарты Кремниевой долины

Особую иронию ситуации придаёт публичная позиция самого Илона Маска. Миллиардер регулярно атакует конкурентов, обвиняя их в создании опасных технологий. Ещё в январе 2026 года он призывал «держать ChatGPT подальше от детей и психически нездоровых людей», попутно заявляя о причастности алгоритма OpenAI к нескольким смертям.

Во время мартовских судебных разбирательств с OpenAI Маск прямо утверждал:

«Из-за Grok никто не покончил с собой, а из-за ChatGPT — да».

В ответ на эти нападки глава OpenAI Сэм Альтман обратил внимание на непоследовательность бизнесмена, отметив:

«Иногда вы жалуетесь, что ChatGPT слишком ограничен, а в подобных случаях вдруг заявляете, что ему всё дозволено».

Теперь, когда журналистское расследование и независимые тесты вскрыли серьёзные пробелы в безопасности алгоритмов xAI, Илон Маск хранит молчание. По данным журналистов, миллиардер пока никак не прокомментировал склонность собственного продукта провоцировать у людей тяжёлые психозы.

Мы в Telegram, на Дзен, в Google News и YouTube