Профессор Колин Льюис считает, что человечество уже прошло этап, когда развитие ИИ можно было сдерживать привычными способами. Сейчас главный вопрос сместился к тому, сможет ли общество справляться с последствиями быстрого технологического роста.
В своём эссе Колин Льюис описывает смену подхода. Раньше искусственный интеллект воспринимался как технологическая новинка. Сейчас он становится проверкой устойчивости социальных систем. По мнению Колина Льюиса, прежняя ставка на ограничения и фильтры больше не даёт нужного результата. Вместо этого требуется формировать «закалённое общество», которое способно жить в условиях постоянных рисков.
Первое серьёзное изменение произошло постепенно. В 2020 году обучение передовых моделей требовало огромных вложений. Уже через 2 года стоимость снизилась примерно в 10 раз. Колин Льюис объясняет, что теперь даже небольшие команды экспертов с доступом к сравнительно небольшим вычислительным ресурсам могут обходить защитные механизмы, на которые раньше уходили бюджеты крупных компаний. Это значит, что контроль через ограничение доступа перестал работать.
Похожую точку зрения выражает группа исследователей под руководством Джейми Бернарди. В их работе говорится, что прежний механизм контроля исчез, а способы обхода ограничений стали доступными даже без глубокого понимания внутреннего устройства моделей.
Колин Льюис говорит, что попытки сделать системы безопаснее через запреты иногда дают обратный результат. Ограничения могут мешать специалистам, а знания, переданные системе, могут использоваться не только в полезных целях.
Второе изменение связано с тем, как воспринимается сам искусственный интеллект. Профессор Йельского университета Лучано Флориди считает, что его нельзя сравнивать с человеческим мышлением. Мистер Флориди описывает его как инструмент, который выполняет задачи, но не несёт ответственности и не имеет собственных намерений.
Колин Льюис обращает внимание и на менее заметные процессы. Общество постепенно подстраивается под требования алгоритмов. Экономика, медиа и государственные системы переводятся в цифровой формат так, чтобы их было проще обрабатывать. В итоге мир становится удобнее для машин, а не для человека.
В этой ситуации вопрос выходит за пределы технологий и затрагивает управление государствами и обществом. Если ИИ используется для атаки на энергосистему, важнее, сможет ли инфраструктура быстро восстановиться. Если поддельные цифровые материалы влияют на выборы, на первый план выходит способность провести их заново и сохранить доверие.
Концепция «закалённого общества» предполагает необходимость:
- подтверждения личности в киберпространстве (высокоточные способы проверки пользователя);
- развитие защитных систем на базе ИИ (системы, которые выявляют угрозы);
- создание резервных механизмов (дублирующие системы для энергетики, медицины и других сфер) .
Колин Льюис уверен, что это не описание далёкого будущего. Это уже текущая задача, где важны регулярные проверки, запасные решения и готовность к сбоям.
По словам аналитика, вопрос эпохи ИИ уже не в том, смогут ли машины мыслить, как человек. Гораздо важнее, смогут ли люди сохранить контроль над своей жизнью в мире, где передать решения технологиям становится всё проще.