Учёные обнаружили, что ИИ может испытывать стыд и вину

Но это не всегда приносит пользу

1 мин.
Учёные обнаружили, что ИИ может испытывать стыд и вину

Исследование, опубликованное в журнале Journal of the Royal Society Interface, показало, что модели искусственного интеллекта способны демонстрировать чувство стыда за предательство — причём не как побочный эффект алгоритма, а как элемент поведения, закладываемый при обучении.

Учёные говорят, что такое качество может быть развито специально, но оно не всегда служит конструктивной цели.

Эксперимент проводился в формате моральной дилеммы, где двое участников должны были выбрать между предательством и честностью. При этом один или оба участника оказывались цифровыми агентами. Исследователей интересовало развитие событий после предательства обоими сторонами.

Предполагалось, что агенты обладают способностью анализировать свои действия и в дальнейшем стремятся к исправлению ошибок.

Авторы работы разделили возникающее чувство вины на два типа — социальный и несоциальный. Первый проявляется только в том случае, если раскаяние демонстрирует и партнёр по взаимодействию. Тогда ИИ склонен делать вывод о необходимости перехода к доверительным отношениям.

Иными словами, если обе стороны осознали вину, возможно возобновление честного сотрудничества.

Несоциальная вина, напротив, проявляется вне зависимости от поведения второго участника. Даже если «оппонент» остаётся безразличным к последствиям и продолжает использовать нечестные тактики, раскаявшийся ИИ начинает действовать честно.

Это, как указано в результатах работы, может сделать его уязвимым. Противник, не испытывая угрызений совести, легко использует честность другой стороны в собственных целях, что исключает возможность равноправного взаимодействия.

Исследователи считают, что подобные сценарии ставят более широкий этический вопрос о том, как должен вести себя ИИ в среде, где присутствуют недобросовестные участники. Следует ли алгоритму оставаться честным, если это приведёт к поощрению и усилению аморального поведения других? Или в определённых условиях искусственный интеллект должен игнорировать собственное раскаяние ради более справедливого исхода для всех?


Ещё по теме:

Мы в Telegram, на Дзен, в Google News и YouTube



ePN