Исследователи из Китайской академии наук и Южно-Китайского технологического университета сообщили о необычном наблюдении. Они выяснили, что крупные языковые и мультимодальные модели без внешних указаний формируют категории и признаки, поразительно совпадающие с тем, как это делает человеческий мозг.
В рамках эксперимента было проанализировано поведение моделей ChatGPT‑3.5 и Gemini Pro Vision при классификации 1854 объектов в задаче на выявление лишнего элемента.
Всего учёные зафиксировали 4,7 млн реакций, в которых ИИ самостоятельно объединяли предметы в группы, ориентируясь на смысл, визуальные характеристики, эмоциональную значимость, возможную опасность для ребёнка и другие параметры.
Всего выявлено 66 категориальных измерений — от функций до эмоций. Особенно высокую степень совпадения с когнитивными паттернами человека продемонстрировали мультимодальные модели, совмещающие зрительное и текстовое восприятие.
Данные нейровизуализации подтвердили, что обработка информации в модели и в человеческом мозге частично пересекается. Это ставит под сомнение прежнее представление о том, что языковые модели работают исключительно за счёт подсчёта вероятностей. Вместо этого наблюдается нечто более сложное — попытка построения смысловых структур без прямого вмешательства извне.
Авторы публикации утверждают, что подобные результаты указывают на возможный путь к созданию общего искусственного интеллекта. Несмотря на отсутствие у ИИ личного опыта и чувств, он демонстрирует спонтанную способность группировать объекты в логические блоки, приближаясь к когнитивным механизмам мышления человека.
Ещё по теме:
- Аналитик: AirPods Pro 3 выйдут не раньше 2026 года
- Обновлённый «Терминал» в macOS Tahoe получил поддержку 24-битного цвета и новый дизайн
- 3DMark стал доступен на macOS