По мере того как языковые модели приобретают всё больше «человеческих» черт в манере общения, встаёт вопрос о возможности их самосознания. Группа учёных предложила нетривиальный подход для проверки этой гипотезы: они создали симуляцию «боли» и «удовольствия» в текстовом игровом сценарии и заставили несколько продвинутых языковых моделей «жертвовать» высокими очками ради избежания боли или, наоборот, гнаться за удовольствием.
Как устроен эксперимент
Исследователи разработали интерактивную текстовую игру, в которой у каждой модели был выбор, — идти ли к достижению наибольшего количества очков или избегать «симулированной боли»/максимизировать «симулированное удовольствие». Девять крупных моделей (включая Google Gemini) должны были проходить миссии, выбирая варианты ответов.
Необычные результаты
Некоторые модели изменяли своё поведение, как только «боль» становилась достаточно высокой, игнорируя при этом выгоды в виде очков. Gemini, например, настойчиво «убегала» от болевых сценариев, даже теряя общие баллы.
Другие же проявляли более сложные паттерны — например, воспринимали «боль» как естественный побочный эффект чего-то полезного, вроде физической нагрузки, или же избегали «гедонистических» путей, считая их нездоровыми.
Что это говорит о сознании?
Учёные подчеркивают: не стоит воспринимать такое поведение как доказательство самосознания. Модели ИИ могли просто обнаружить, что наиболее оптимальный исход (или «правильный ответ») подразумевает «уклонение от боли», и симулировать такое поведение. Тем не менее авторы считают важным начало разработки поведенческих тестов для раннего выявления зачатков сознания у ИИ.
Новый взгляд на старую проблему
До сих пор большинство попыток понять, «чувствует» ли ИИ что-либо, сводилось к самооценке моделей, но это всегда было уязвимо к «имитациям». Новая работа предлагает иной подход: смотреть на то, как ИИ балансирует между разными «стимулами» и «наказаниями» в ситуации, требующей выбора.
Пока говорить о настоящем осмысленном переживании боли или удовольствия рано: как указывают исследователи, эти модели по-прежнему лишены субъективного опыта. Но сам метод может стать отправной точкой для более серьёзных исследований в будущем, особенно по мере того как ИИ станет более «умным» и всё больше будет пересекать грань между простой симуляцией поведения и вероятной возможностью самоосознавания.
Ещё по теме:
- Меню «Пуск» в Windows 11 получило поддержку iPhone: как это работает
- Французский аналог ChatGPT с треском провалился и ушёл в офлайн через три дня из-за абсурдных ответов
- X Everything App: как новая платформа Илона Маска собирается конкурировать с Apple Pay