Исследование: продвинутые ИИ-модели всё больше напоминают коллективный человеческий разум

Google обнаружила в китайских нейросетях механизм внутреннего спора, аналогичный групповому мышлению

2 мин.
Исследование: продвинутые ИИ-модели всё больше напоминают коллективный человеческий разум

Исследователи из компании Google выяснили, что мощные модели искусственного интеллекта, способные к рассуждению, обладают внутренними когнитивными процессами, поразительно напоминающими механизмы коллективного разума у людей. Исследование продемонстрировало: ключевым фактором роста «интеллекта» ИИ-систем становится разнообразие перспектив, а не только масштаб вычислительных мощностей.

Внутренние дебаты как источник интеллекта

Эксперименты проводились на моделях DeepSeek R1 и Alibaba Cloud QwQ-32B – китайских ИИ-системах с открытым кодом. DeepSeek R1 содержит 671 миллиард параметров и обучалась методами контролируемой тонкой настройки и обучения с подкреплением. Модель QwQ-32B от Alibaba располагает 32 миллиардами параметров и контекстным окном в 131 000 токенов, что позволяет ей обрабатывать сложные многоэтапные логические цепочки.

Учёные наблюдали, как эти модели генерируют внутренние дебаты – процесс, который они назвали «обществами мысли». В ходе рассуждений нейросети проявляли различные черты личности и экспертизу в разных областях, что приводило к улучшению их способностей.

«Мы полагаем, что "рассуждающие" модели создают вычислительную параллель коллективному интеллекту человеческих групп, где разнообразие обеспечивает превосходное решение проблем при систематической структурированности», – заявили авторы в статье.

Как это работает

Основой выводов Google стал анализ «следов рассуждений» – промежуточных пошаговых выводов, которые генерируют модели перед финальным ответом. Впервые такие следы стали доступны пользователям, когда ханчжоуский стартап DeepSeek выпустил свою первую модель с рассуждениями R1. Следы рассуждений имитировали «смоделированные социальные взаимодействия»: постановку вопросов, принятие чужой точки зрения и примирение позиций.

Когда модели поощряли быть более «разговорчивыми» с самими собой, точность их рассуждений повышалась. Это открытие способно изменить представление об ИИ-моделях: вместо изолированных систем решения задач их начинают рассматривать как коллективные архитектуры рассуждения, где интеллект возникает из структурированного взаимодействия различных «голосов».

Команда исследователей и китайский след

Работу возглавил Чунсоль Ким, аспирант социологии Чикагского университета, а вице-президент Google Блейз Агуэра-и-Аркас указан как последний автор. Исследование провела команда из четырёх учёных группы Paradigms of Intelligence, изучающей интеллект через междисциплинарные методы. Работа пока не прошла рецензирование.

Примечательно, что для экспериментов использовались именно китайские модели – это отражает растущую зависимость американской науки от китайских ИИ-систем с открытыми весами. Чай Вэньхао, аспирант факультета компьютерных наук Принстонского университета, отметил, что на занятиях в его вузе почти исключительно применяют китайские модели, поскольку в США мало открытых моделей сопоставимой производительности.

Новая эра рассуждающего ИИ

Модели рассуждения, которые «думают» над задачами, стали доминирующим типом фундаментальных ИИ-систем после того, как разработчик ChatGPT, компания OpenAI, представила линейку моделей «o» в сентябре 2024 года.

Такие системы используют больше вычислительных ресурсов на этапе развёртывания, что повышает возможности ИИ и одновременно снижает стоимость интеллектуальных операций. Собственная флагманская модель рассуждения Google – Gemini Pro 3, разработанная командой DeepMind, – считается одной из сильнейших в мире.

Мы в Telegram, на Дзен, в Google News и YouTube



ePN