В статье, опубликованной в журнале Intelligent Computing, Филипп Николас Джонсон-Лэрд из Принстонского университета и Марко Рагни из Хемницкого технологического университета предложили новую альтернативу тесту Тьюринга, который был разработан пионером компьютерной инженерии Аланом Тьюрингом.

В статье говорится о том, что настало время сместить акцент с вопроса о том, может ли машина имитировать человеческие реакции, на более фундаментальный вопрос: «Рассуждает ли программа так же, как рассуждает человек?».

Тест Тьюринга, который долгое время был краеугольным камнем оценки ИИ, предполагает, что эксперт пытается отличить ответы человека и машины на ряд вопросов. Если эксперт не может последовательно отличить один ответ от другого, считается, что машина «прошла» тест. Несмотря на то, что данный тест является ценным эталоном в истории ИИ, он имеет определённые ограничения:

  • Подражание и понимание: Прохождение теста Тьюринга часто связано с имитацией человеческих реакций, что делает его скорее тестом на подражание и создание языка, чем на истинно человеческое мышление. Многие системы искусственного интеллекта прекрасно имитируют человеческие разговоры, но не обладают глубокими способностями к рассуждениям.
  • Отсутствие самосознания: Тест Тьюринга не требует от ИИ самосознания и понимания собственных рассуждений. Он фокусируется исключительно на внешних взаимодействиях и реакциях, игнорируя интроспективный аспект человеческого познания.
  • Неспособность решить проблему мышления: Сам Алан Тьюринг признавал, что тест не может по-настоящему решить вопрос о том, могут ли машины мыслить. Тест больше направлен на имитацию, чем на мышление.

Джонсон-Лэрд и Рагни предлагают новую схему оценки, позволяющую определить, действительно ли ИИ рассуждает как человек. Эта система состоит из трёх этапов:

  1. Тестирование в психологических экспериментах:

Исследователи предлагают подвергать искусственный интеллект серии психологических экспериментов, направленных на определение различий между человекоподобными рассуждениями и стандартными логическими процессами. В этих экспериментах изучаются различные аспекты рассуждений, в том числе то, как человек формирует выводы из составных утверждений, как он сводит последовательные к одной, а также другие нюансы, отличающиеся от стандартных логических схем.

  1. Самоанализ:

Этот этап направлен на оценку понимания программой своего собственного способа рассуждения, что является важнейшим аспектом человеческого сознания. Программа должна уметь анализировать свои рассуждения и давать объяснения своим решениям. Задавая вопросы, требующие осознания методов рассуждений, исследователи стремятся определить, обладает ли ИИ самоанализом, подобным человеческому.

  1. Изучение исходного кода:

На последнем этапе исследователи углубляются в исходный код программы. Ключевым моментом здесь является выявление наличия компонентов, известных как имитаторы человеческой деятельности. К таким компонентам относятся системы быстрых умозаключений, вдумчивых рассуждений, способности интерпретировать термины на основе контекста и общих знаний. Если исходный код программы отражает эти принципы, то считается, что программа рассуждает подобно человеку.

Этот подход, заменяющий тест Тьюринга исследованием способности ИИ к рассуждению, знаменует собой смену парадигмы в оценке искусственного интеллекта. Рассматривая ИИ как участника когнитивных экспериментов и даже подвергая его код анализу, схожему с исследованием мозга, авторы стремятся приблизить нас к пониманию того, действительно ли системы с искусственным интеллектом рассуждают подобно человеку.

В то время как мир продолжает стремиться к созданию передового искусственного интеллекта, этот альтернативный подход обещает пересмотреть стандарты оценки ИИ и приблизить нас к цели понимания того, как машины рассуждают. Возможно, путь к созданию искусственного интеллекта общего назначения только что сделал значительный шаг вперёд.


Ещё по теме: