По мере того как искусственный интеллект совершает прыжок из области научной фантастики в плоскость насущных этических проблем, вопрос о наличии у машин сознания становится всё более острым. Однако доктор Том Макклелланд, философ из Кембриджского университета, в своём новом исследовании приходит к отрезвляющему выводу: человечество, вероятно, никогда не сможет узнать наверняка, обрёл ли ИИ осознанность.
В статье, опубликованной в авторитетном научном журнале Mind and Language, Макклелланд аргументирует, что единственной обоснованной позицией в этом споре является агностицизм. По его мнению, доказательная база того, что именно составляет суть сознания, слишком ограничена, чтобы мы могли заметить момент «пробуждения» машины – и надёжный тест для этого останётся недосягаемым в обозримом будущем.
Иллюзия понимания
Макклелланд разбирает аргументы обеих сторон баррикад – и техно-оптимистов, уверенных в скором рождении цифрового разума, и скептиков. Философ показывает, что оба лагеря совершают «прыжок веры», выходящий далеко за рамки существующих доказательств.
«У нас нет глубинного объяснения природы сознания, — поясняет Макклелланд. — Нет доказательств того, что сознание неизбежно возникает при определённой вычислительной структуре, как и нет доказательств того, что оно является исключительно биологическим феноменом».
Проблема усугубляется тем, что наши привычные инструменты познания здесь бессильны. Здравый смысл, на который мы часто полагаемся, является продуктом длительной биологической эволюции, в которой не было места искусственным формам жизни. Поэтому, когда речь заходит об ИИ, интуиции доверять нельзя.
«Если ни здравый смысл, ни научные исследования не могут дать нам ответ, логичной позицией остаётся агностицизм», — заключает учёный.
Этика неопределённости
Макклелланд называет свою позицию «твёрдым агностицизмом», но подчёркивает, что эта неопределённость не освобождает нас от ответственности. Напротив, она создаёт сложную этическую дилемму.
Ключевым фактором здесь является чувствительность – способность испытывать сознательные переживания, которые могут быть плохими или хорошими. Именно это свойство делает субъекта способным к страданию или наслаждению, и именно здесь вступают в силу законы этики.
«Даже если мы случайно создадим сознательный ИИ, маловероятно, что это будет тот тип сознания, о котором нам стоит беспокоиться прямо сейчас», — отмечает философ.
В качестве примера он приводит беспилотные автомобили: машина может «воспринимать» дорогу перед собой, что само по себе технологическое чудо. Но с этической точки зрения это не имеет значения, пока у автомобиля не появится эмоциональная реакция на пункт назначения или страх перед аварией.
Риск антропоморфизма
Исследование предупреждает об опасности проекции человеческих качеств на алгоритмы. В условиях, когда мы не можем проверить наличие внутреннего мира у собеседника-бота, люди склонны заполнять пробелы собственной фантазией.
Невозможность создания валидного теста на сознание для машин открывает пространство для манипуляций со стороны техногигантов, продающих «следующий уровень ИИ-интеллекта». В отсутствие чётких критериев граница между имитацией чувств и реальными переживаниями остаётся размытой, заставляя общество балансировать между риском игнорирования страданий потенциально живого существа и опасностью приписывания души «калькулятору».
Макклелланд резюмирует: проблема сознания грандиозна, и хотя она может не быть непреодолимой в абсолютном смысле, на данном этапе развития науки признание своего неведения — самый честный и безопасный путь.