Иллюзия разума: почему ИИ не станет человеком и в чём ошибаются футурологи

Профессор Кэл Ньюпорт объясняет, почему сравнение нейросетей с мозгом ребёнка — это «анимизм XXI века»

3 мин.
Иллюзия разума: почему ИИ не станет человеком и в чём ошибаются футурологи

Дискуссии об искусственном интеллекте достигли, кажется, точки кипения: от восторгов по поводу генерации кода до апокалиптических сценариев о порабощении человечества. Однако, по мнению Кэла Ньюпорта, профессора информатики Джорджтаунского университета и автора бестселлера «Цифровой минимализм», мы совершаем фундаментальную ошибку. Мы путаем впечатляющую имитацию речи с реальным мыслительным процессом. —

В своём недавнем разборе Ньюпорт анализирует популярные заблуждения, возникшие после вирусного выступления биолога Брета Вайнштейна у Джо Рогана, и объясняет, почему даже самые продвинутые языковые модели (LLM) остаются всего лишь статичными таблицами чисел.

ИИ — это не ребёнок

Один из самых распространённых нарративов, который транслируют публичные интеллектуалы вроде Брета Вайнштейна, заключается в сравнении обучения нейросети с развитием ребёнка. Логика звучит убедительно: ребёнок слушает речь взрослых, находит паттерны, начинает понимать связь между словом «дверь» и физическим объектом, а затем учится манипулировать родителями, чтобы получить желаемое. Вайнштейн утверждает, что LLM делают то же самое: «проводят эксперименты», «хотят» достичь результата и, возможно, уже обладают сознанием.

Ньюпорт называет этот подход современным анимизмом. Древние люди видели молнию и придумывали историю о гневе богов. Современные комментаторы видят беглый текст в чат-боте и придумывают историю о «рождающемся сознании».

«Это переход от того, что модели делают на самом деле, к выдуманным историям о зловещих намерениях. Модели не проводят эксперименты. У них нет желаний. У них нет системы ценностей или инстинктов, свойственных биологическому мозгу».

Чтобы понять разницу, необходимо отделить результат (что модель может) от механизма (как она это делает).

Анатомия «чёрного ящика»

Если открыть «капот» любой современной языковой модели, мы не увидим там нейронных бурь или вспышек озарения. Мы увидим гигантскую статичную таблицу чисел (параметров) и алгоритм матричного умножения.

Работа LLM строится на предсказании следующего токена (части слова). Это процесс, доведённый до совершенства на триллионах примеров:

  1. Входные данные: Текст преобразуется в последовательность чисел (векторов).
  2. Обработка: Эти числа проходят через слои нейросети (трансформеры). На каждом этапе происходит математическая операция (умножение матриц), выполняемая на графических процессорах (GPU).
  3. Выход: Полученная последовательность преобразуется обратно в вероятное следующее слово.

Ключевое слово здесь — статичность. Обученная модель (будь то GPT-4 или GPT-5) — это застывший слепок.

«Как только обучение закончено, таблица чисел фиксируется. Когда вы используете ChatGPT, он не учится в процессе диалога в том смысле, как это делает мозг. Там нет спонтанности. Это просто механическое пропускание вектора через слои. Вход — умножение — выход. Никакой рефлексии, никакой переоценки ценностей, никакого "планирования" в человеческом понимании».

Даже физически «мозг» ИИ не существует как единое целое — вычисления разбросаны по тысячам чипов в дата-центрах, обрабатывающих миллионы запросов одновременно.

Чего на самом деле боятся учёные

Скептики могут возразить: если это просто «автозаполнение», почему тогда Джеффри Хинтон, нобелевский лауреат и один из создателей глубокого обучения, бьёт тревогу и говорит об угрозе человечеству?

Ньюпорт подчёркивает важное различие. Вайнштейн (биолог) боится текущих моделей, приписывая им сознание. Хинтон (информатик) знает, как работают текущие модели, и знает, что сознания в них нет. Его страх связан с будущим.

Хинтона поразило не наличие сознания, а эффективность обучения. Оказалось, что простая задача «угадай следующее слово» заставляет машину выстраивать невероятно сложные внутренние связи, вплоть до понимания юмора и сарказма. Логика Хинтона такова: если примитивная цель (угадать слово) привела к такому мощному пониманию контекста, то что будет, если мы создадим систему с другими целями?

«Хинтон боится не чат-ботов. Он боится гипотетических "искусственных мозгов", которые мы ещё не создали — систем, у которых будут заложены функции целеполагания, долгосрочного планирования и возможность создавать собственные подцели (например, "получить больше контроля для выполнения задачи"). Но это уже не LLM. Это принципиально другая архитектура».

Крах надежд 2025 года: почему ИИ-агенты не сработали

Текущий 2025 год должен был стать «годом ИИ-агентов» — программ, которые не просто пишут текст, а выполняют реальную работу: бронируют билеты, управляют проектами, ведут переговоры. Однако, как отмечает Ньюпорт, этот прогноз по большей части провалился.

Причина кроется в архитектуре. LLM блестяще владеют языком, но у них нет модели мира.

  • Они не понимают причинно-следственных связей в физической реальности.
  • Они не умеют симулировать будущее («если я сделаю А, произойдёт Б»).
  • У них нет памяти и обновляемого состояния, необходимых для сложной деятельности.

Попытки прикрутить LLM к скриптам управления (создать агентов) привели к созданию ненадёжных и непредсказуемых систем. Для настоящего «искусственного разума» одной языковой модели мало. Потребуется сложная система модулей: модуль памяти, модуль ценностей, модуль симуляции мира. Пока мы даже близко не подошли к тому, чтобы собрать это в единый работающий механизм.

Резюме

Разница между научным подходом и мифотворчеством — в понимании механизма. Наблюдатель видит чудо: машина шутит, спорит и пишет стихи. Инженер видит матричное умножение векторов в многомерном семантическом пространстве.

Пока мы не научимся различать имитацию человеческого поведения и реальную когнитивную деятельность, мы будем бороться с выдуманными призраками (восстание машин), упуская из виду реальные ограничения и возможности технологии, которая, при всей своей мощи, остаётся всего лишь калькулятором смыслов.


Ещё по теме:

Мы в Telegram, на Дзен, в Google News и YouTube



ePN