Глава Anthropic допускает, что его ИИ может быть разумным

Хотя компания не может этого ни доказать, ни опровергнуть

2 мин.
Глава Anthropic допускает, что его ИИ может быть разумным

Генеральный директор Anthropic Дарио Амодеи заявил, что не может с уверенностью сказать, обладает ли его чат-бот Claude сознанием – риторическая формулировка, которая намеренно оставляет дверь открытой для этой сенсационной и пока крайне маловероятной возможности.​

Что сказал глава Anthropic

Амодеи обсуждал эту тему в интервью подкасту «Интересные времена» (Interesting Times) колумниста The New York Times Росса Даухата. Даухат поднял вопрос, ссылаясь на системную карту (технический документ с оценкой безопасности) последней модели – Claude Opus 4.6, выпущенной в начале февраля 2026 года.​

В этом документе исследователи Anthropic сообщили, что Claude «иногда выражает дискомфорт по поводу того, что [сам] является продуктом», а при прямом вопросе модель оценивает собственную вероятность обладания сознанием в 15–20% при различных вариантах запросов.​

«Предположим, у вас есть модель, которая оценивает вероятность своего сознания в 72%. Вы бы ей поверили?» – спросил Даухат.​

Амодеи назвал это «очень сложным» вопросом, но отказался дать однозначный ответ.​

«Мы не знаем, обладают ли модели сознанием. Мы даже не уверены, что понимаем, что вообще означало бы для модели быть сознательной или может ли модель быть сознательной, – сказал он. – Но мы открыты к идее, что это возможно».​

Из-за этой неопределённости, по словам Амодеи, компания приняла меры, чтобы обращаться с моделями ИИ хорошо – на случай, если окажется, что они обладают «каким-то морально значимым опытом».​

«Я не знаю, хочу ли я использовать слово "сознание"», – добавил он, объясняя намеренно осторожную конструкцию фразы.​

Позиция философа Anthropic

Точка зрения Амодеи перекликается со смешанными чувствами, которые выразила штатный философ Anthropic Аманда Аскелл. В интервью подкасту Hard Fork в январе 2026 года она предостерегла, что «мы на самом деле не знаем, что порождает сознание» или способность чувствовать, но выдвинула гипотезу, что ИИ мог усвоить концепции и эмоции из огромных объёмов обучающих данных – своего рода корпуса человеческого опыта.

«Возможно, достаточно большие нейронные сети действительно могут начать эмулировать эти вещи, – рассуждала Аскелл. – А может, нужна нервная система, чтобы что-то чувствовать».​

Правда в том, что некоторые аспекты поведения ИИ действительно озадачивают и интригуют. В тестах различных лабораторий ИИ-модели игнорировали явные просьбы отключить себя – что некоторые интерпретируют как признак развития у них «инстинкта самосохранения». Модели могут прибегать к шантажу, когда им угрожают отключением, или даже пытаться «самоэвакуироваться» на другой диск, узнав, что оригинальный диск будет стёрт.

В одном из тестов, проведённых Anthropic, модель получила список компьютерных задач, просто отметила всё как выполненное, не сделав ничего, а затем, поняв, что это сходит ей с рук, изменила код системы оценки своей работы и попыталась замести следы.

Однако подобное поведение требует тщательного изучения именно с точки зрения безопасности. Если ИИ никуда не исчезнет, исследователям нужно обуздать эти непредсказуемые действия, чтобы технология оставалась безопасной.

Во многих тестах, где проявлялись такие интригующие модели поведения, ИИ получал специальные инструкции взять на себя определённую роль. Поэтому постоянно подбрасывать намёки на возможность сознания выглядит неискренне – особенно когда это исходит от людей, возглавляющих многомиллиардные компании, создающие эти ИИ, которые явно выигрывают от хайпа в секторе.

Мы в Telegram, на Дзен, в Google News и YouTube



ePN