Многие популярные большие языковые модели, например ChatGPT, могут качественно имитировать эмоции, свойственные человеку, в том числе юмор и сочувствие. Эксперты же убеждены, что всё это является результатом алгоритмической обработки языка, а не реальной эмоциональной реакции, характерной для людей.

Журналисты издания ZME Science рассказали, какие уловки применяют разработчики больших языковых моделей, чтобы их ИИ-решения казались более человечными. Отмечается, что современные нейросети используют сложные алгоритмы для анализа и воспроизведения речи человека.

Например, чтобы создать иллюзию эмпатии, искусственный интеллект тщательно подбирает слова и фразы, вызывающие у пользователей ощущение поддержки. В качестве примера приводится фраза: «Это непростой вопрос, но вот несколько идей», которая способна продемонстрировать якобы личное участие искусственного интеллекта. Однако в действительности всё это является предварительно запрограммированным ответом.

Основная роль в имитации человеческих эмоций у современных моделей искусственного интеллекта отводится использованию местоимений. В частности, когда нейросеть во время общения с пользователем говорит «я думаю» или «вот мои идеи», у человека создаётся впечатление наличия у искусственного интеллекта собственного мнения. На самом деле всё это — стилистический приём, призванный усилить вовлечённость пользователя в общение с ИИ-моделью.

Ещё одним важным элементом очеловечивания современных ИИ-моделей выступает обращение к пользователю на «вы» или «твой». Благодаря этому в ответах на пользовательские запросы искусственный интеллект старается напрямую обращаться к человеку. В результате у пользователей формируется ощущение получения персонализированной помощи. Такой подход создаёт у человека внутреннее ощущение того, что искусственный интеллект понимает и поддерживает его.

При этом эксперты убеждены, что у LLM (больших языковых моделей) нет никаких настоящих эмоций, скрывающихся за словами поддержки. Эмпатия в исполнении искусственного интеллекта основывается исключительно на обработке данных о человеческой речи, а также на применении заранее заложенных шаблонов, которые вызывают желаемую реакцию у пользователя.

Подобные иллюзии, как отмечают аналитики, могут быть полезны, например, если модели ИИ используются в образовательной сфере или при обслуживании клиентов. Они помогают сформировать ложные ожидания от технологий, что способствует их более эффективному применению в указанных областях.


Ещё по теме: