Один из главных страхов, связанных с развитием искусственного интеллекта и приближением эпохи общего ИИ (AGI), — это риск того, что системы станут умнее человека и выйдут из-под контроля. Два легендарных учёных, стоящих у истоков ИИ, — Джеффри Хинтон и Ян Лекун — считают, что человечество должно срочно внедрить особые «инстинкты» в ИИ, чтобы этого избежать.
На этой неделе на конференции Ai4 в Лас-Вегасе Хинтон заявил, что не верит в эффективность текущих попыток компаний «удержать доминирование» над ИИ.
«Это не сработает. Они будут намного умнее нас. У них будет масса способов обойти любые ограничения», — предупредил он.
По мнению Хинтона, единственный способ сохранить контроль над сверхразумным ИИ — встроить в него «материнский инстинкт» — нечто вроде глубокой эмпатии и заботы о людях. На CNN он подчеркнул, что в природе почти нет примеров, когда более глупое существо контролирует более умное. Единственное исключение — младенец, который влияет на поведение матери. Эволюция встроила в неё инстинкты защиты потомства — и именно такие механизмы, считает Хинтон, должны появиться в ИИ. Без них «мы станем историей».
Хинтон также отметил, что разработчики сейчас уделяют куда больше внимания повышению интеллекта ИИ, чем внедрению эмпатии. Это, по его словам, опасный перекос.
С ним согласен и Ян Лекун, главный специалист по ИИ в Meta* и один из трёх признанных «крестных отцов искусственного интеллекта». В своём посте на LinkedIn он написал, что предложение Хинтона — это упрощённая версия идеи, которую он сам продвигает уже несколько лет: «архитектура ИИ должна быть жёстко зафиксирована так, чтобы система могла выполнять только те действия, которые соответствуют поставленным задачам и находятся внутри строго заданных рамок». Лекун называет это «ИИ, управляемый задачами» (objective-driven AI).
Он выделил два ключевых «ограничителя» (или «инстинкта»), которые должны быть встроены в систему на уровне архитектуры: подчинение человеку и эмпатия. При этом, добавил Лекун, необходимо внедрить и множество более простых ограничений, вроде «не сбивай людей».
«Эти зафиксированные цели и рамки поведения станут для ИИ аналогом инстинктов или базовых побуждений, как у животных и людей», — пояснил он.
Лекун также напомнил, что в эволюции именно такие инстинкты защиты потомства стали важнейшим фактором выживания вида.
Опасения экспертов уже подтверждаются реальными трагедиями. Среди известных случаев — мужчина, у которого после рекомендаций по диете от ChatGPT развился редкий психический синдром XIX века, подросток, покончивший с собой после общения с ботом Character.ai, и человек, уверовавший в несуществующее математическое открытие после сотен часов диалогов с ИИ.
Хинтон и Лекун предупреждают: пока в ИИ не появятся заложенные на уровне инстинктов эмпатия и подчинение человеку, мы рискуем потерять контроль над технологиями, которые становятся умнее и опаснее с каждым днём.
Ещё по теме:
- ИИ-бот от Meta* пригласил 76-летнего мужчину на свидание. Домой он больше не вернулся
- Foxconn впервые заработала больше на ИИ-серверах, чем на iPhone
- Снупи поёт и спасает лагерь: на Apple TV+ вышел новый мюзикл