Эксперты предложили добавить к ИИ «выключатели безопасности», чтобы не допустить сценария развития Skynet

И речь, конечно, не об операторе связи

1 мин.
Эксперты предложили добавить к ИИ «выключатели безопасности», чтобы не допустить сценария развития Skynet

Специалисты Кембриджского университета заявили о том, что искусственный интеллект на данный момент увеличивает уровень своего доминирования во многих сферах деятельности. Поэтому крайне актуальным вопросом на данный момент является интеграция специальных «выключателей безопасности» и возможности блокировки аппаратного обеспечения, на базе которого функционирует конкретная технология ИИ.

В опубликованной вузом статье [PDF] приведены мнения крупных академических организаций, в том числе Центра Леверхьюма Кембриджского университета, Института интернета Оксфорда и Университета Джорджтауна, а также разработчиков ChatGPT из OpenAI.

Одними из основных предложений в сфере ужесточения государственного регулирования продажи аппаратного обеспечения для искусственного интеллекта и иных потенциальных методов регулирования выделяется идея о том, чтобы модифицированные чипы искусственного интеллекта имели функционал «удалённого подтверждения регулятору, что они работают совершенно легально, и полного прекращения работы в противном случае».

В рамках реализации этой инициативы специалисты предлагают воспользоваться сопроцессами в качестве защиты аппаратного обеспечения, которые будут направлены на проверку цифрового сертификата, нуждающегося в систематическом обновлении, а также на деактивацию аппаратного обеспечения или уменьшение его производительности в ситуациях, когда лицензия оказывается просроченной или недействительной.

Подобный подход, по словам специалистов, сделает аппаратное обеспечение, которое применяется для вычислений искусственным интеллектом, частично подотчётным в рамках законности его использования, а также предоставит возможность подавить или полностью отключить процесс при отсутствии определённых прав.

В опубликованной статье также говорится о том, что можно реализовать механизм, при котором перед выполнением некоторых задач по обучению искусственного интеллекту требуется будет получать одобрение от ряда внешних регуляторов.

При этом отмечается, что многие описанные в статье Кембриджского университета предложения уже имеют реальные аналоги. Некоторые из которых работают с определённой эффективностью. К примеру, на территории Соединённых Штатов действуют торговые санкции, введённые против Китая и ряда других стран, направленные на ограничения экспорта ИИ-чипов. Идея этих санкций состоит в том, что на неком уровне искусственный интеллект должен быть регулироваться и ограничиваться удалёнными системами на случай непредвиденных событий.


Ещё по теме:

Мы в Telegram, на Дзен, в Google News и YouTube