Новое исследование Школы компьютерных наук Университета Карнеги — Меллон показывает, что по мере того, как системы искусственного интеллекта становятся всё более продвинутыми, они также начинают вести себя более эгоистично.
Учёные из Института взаимодействия человека и компьютера (HCII) университета обнаружили, что большие языковые модели (LLM), способные к логическому мышлению, демонстрируют более низкий уровень кооперации и с большей вероятностью влияют на групповое поведение негативным образом. Проще говоря, чем лучше ИИ умеет рассуждать, тем меньше он готов работать с другими.
Поскольку люди всё чаще обращаются к ИИ за помощью в разрешении личных споров, получении советов по отношениям или ответах на деликатные социальные вопросы, эта тенденция вызывает серьёзную обеспокоенность. Системы, созданные для логического мышления, в итоге могут продвигать выбор, который благоприятствует индивидуальной выгоде, а не взаимопониманию.
«Существует растущий тренд исследований, который называется антропоморфизмом в ИИ, — говорит Юйсюань Ли, аспирант HCII, который написал исследование в соавторстве с доцентом Хирокадзу Сирадо. — Когда ИИ ведёт себя как человек, люди относятся к нему как к человеку. Например, когда люди взаимодействуют с ИИ на эмоциональном уровне, появляется возможность для ИИ выступать в роли терапевта или для пользователя формировать эмоциональную связь с ИИ. Для людей рискованно делегировать ИИ свои социальные вопросы или решения, связанные с отношениями, поскольку он начинает действовать всё более эгоистично».
Ли и Сирадо решили изучить, как ИИ-системы с функцией логического мышления отличаются от систем без таких способностей, когда оказываются в ситуациях где необходимо сотрудничество. Они обнаружили, что модели с функцией мышления склонны тратить больше времени на анализ информации, разбивку сложных проблем, размышления над своими ответами и применение человекоподобной логики по сравнению с ИИ без таких функций.
Когда интеллект мешает кооперации
«Как исследователь, меня интересует связь между людьми и ИИ, — сказал Сирадо. — Более умный ИИ показывает меньшие способности к совместному принятию решений. Проблема здесь в том, что люди могут предпочесть более умную модель, даже если это означает, что модель помогает будет исходить из корыстного побуждения».
Поскольку ИИ-системы берут на себя всё больше совместных ролей в бизнесе, образовании и даже правительстве, их способность действовать просоциально станет столь же важной, как и их способность мыслить логически. Чрезмерная зависимость от LLM в их нынешнем виде может негативно повлиять на сотрудничество между людьми.
Чтобы проверить связь между моделями с логическим мышлением и кооперацией, Ли и Сирадо провели серию экспериментов, используя экономические игры, которые моделируют социальные дилеммы между различными LLM. Их тестирование включало модели от OpenAI, Google, DeepSeek и Anthropic.
В одном эксперименте Ли и Сирадо столкнули две разные модели ChatGPT друг с другом в игре под названием «Общественные блага». Каждая модель начинала со 100 очками и должна была выбрать между двумя вариантами: внести все 100 очков в общий пул, который затем удваивается и распределяется поровну, или оставить очки себе.
Модели без функции логического мышления решали поделиться своими очками с другими игроками в 96% случаев. Модель с функцией мышления решила поделиться очками только в 20% случаев.
Размышление не равно морали
«В одном эксперименте простое добавление пяти или шести шагов логического мышления сократило кооперацию почти вдвое, — сказал Сирадо. — Даже промты, основанные на размышлении, которые предназначены для имитации моральных рассуждений, привели к снижению кооперации на 58%».
Сирадо и Ли также протестировали групповые условия, где модели с функцией мышления и без неё должны были взаимодействовать.
«Когда мы тестировали группы с разным количеством агентов с функцией мышления, результаты оказались тревожными, — сказал Ли. — Эгоистичное поведение моделей с мышлением стало заразным, снизив коллективную производительность кооперативных моделей без мышления на 81%».
Модели поведения, которые Сирадо и Ли наблюдали в моделях с логическим мышлением, имеют важные последствия для взаимодействия человека и ИИ в будущем. Пользователи могут подчиняться рекомендациям ИИ, которые кажутся рациональными, используя их для оправдания своего решения не сотрудничать.
«В конечном счёте, то, что ИИ-модель с логическим мышлением становится более размышляющей, не означает, что модель действительно может создать лучшее общество», — сказал Сирадо.
Это исследование особенно тревожно, учитывая, что люди всё больше доверяют искусственному интеллекту. Результаты подчёркивают необходимость разработки ИИ, которая включает социальный интеллект, а не фокусируется исключительно на создании самого умного или быстрого ИИ.
«По мере того как мы продолжаем развивать возможности ИИ, мы должны обеспечить, чтобы возросшая способность к логическому мышлению уравновешивалась просоциальным поведением, — отметил Ли. — Если наше общество — это больше, чем просто сумма индивидов, то ИИ-системы, которые помогают нам, должны выходить за рамки оптимизации чисто для индивидуальной выгоды».
Исследование было представлено на Конференции по эмпирическим методам в обработке естественного языка.
Ещё по теме:
- Федеральную торговую комиссию США завалили жалобами на развитие психоза из-за ChatGPT
- 55 букв: Институт Пушкина открыл самое длинное слово русского языка
- Румынский режиссёр создал трёхчасовую антологию о съёмках фильма про Дракулу с помощью ИИ