Несмотря на миллиардные инвестиции в суперкомпьютеры, ведущие исследователи ИИ сомневаются, что масштабирование приведёт к настоящему искусственному интеллекту.
Большие игроки ИИ-индустрии — Microsoft, Google, Amazon и другие — годами делают ставку на то, что наращивание вычислительной мощности и объёмов данных приведёт к созданию AGI (Общий искусственный интеллект), то есть систем, способных мыслить как человек или даже лучше. Но новое исследование [PDF] показывает: большинство учёных в это больше не верит.
Согласно опросу 475 исследователей ИИ, проведённому Ассоциацией содействия развитию искусственного интеллекта (AAAI), 76% считают, что просто увеличение мощностей и данных с текущими архитектурами вряд ли приведёт к появлению AGI. И только 23% участников опроса вообще напрямую ориентированы на создание AGI.
Один из авторов отчёта, профессор Калифорнийского университета в Беркли Стюарт Рассел, говорит:
«Огромные инвестиции в масштабирование, без сопоставимых усилий по осмыслению происходящего, с самого начала казались мне ошибкой».
Тем временем, индустрия продолжает инвестировать в «большие модели»: в 2023 году венчурное финансирование генеративного ИИ превысило $56 млрд, а рынок полупроводников достиг $626 млрд. Чтобы запитать всё это, техногиганты заключают сделки на поставку ядерной энергии для дата-центров.
Тем не менее, реальный прогресс замедлился: даже флагманские модели от OpenAI демонстрируют лишь небольшие улучшения по сравнению с предыдущими версиями. Это подтверждает мнение о том, что потенциал масштабирования уже исчерпывается.
Устойчивость и безопасность вместо мощности
Опрос показал смещение фокуса: 77% исследователей считают приоритетом создание ИИ с приемлемым уровнем риска, а не гонку за «всемогущим интеллектом». Более того, 82% участников считают, что если AGI будет создан частной компанией, то он должен находиться в общественной собственности, чтобы минимизировать глобальные риски.
При этом 70% не поддерживают идею полного приостановления исследований AGI, пока не будут разработаны безопасные механизмы. Это указывает на осторожный, но продолжающийся прогресс.
Искатели новых путей предлагают менее затратные подходы. Например, OpenAI тестирует «вычисления на этапе ответа» (test-time compute) — модели дольше «думают» перед генерацией ответа. Такой подход уже дал прирост качества без наращивания параметров модели.
Однако профессор Принстонского университета Арвинд Нараянан сомневается, что это — решение всех проблем.
Мнения расходятся
Тем временем главы компаний по-прежнему настроены оптимистично. Гендиректор Google Сундар Пичаи признаёт, что «эра лёгких побед закончилась», но по-прежнему считает, что «масштабировать можно бесконечно».
Таким образом, индустрия находится в переломной точке: накачивание моделей вычислительными мощностями даёт всё меньше отдачи, а эксперты призывают сместить акцент с объёма на понимание и безопасность. Вопрос теперь не в том, насколько большим станет ИИ, а в том, станет ли он действительно умным — и для чего это нам нужно.
Ещё по теме:
- В Steam обнаружили шпионское ПО в демоверсии игры
- Apple инвестирует ещё $99 млн в китайский фонд чистой энергии
- Учёные помогли пациенту научиться силой мысли двигать роботизированной рукой