«Мы станем историей»: Хинтон и Лекун призвали «вшивать материнский инстинкт» в ИИ

Два «крёстных отца ИИ» уверены: без сочувствия и подчинения ИИ выйдет из-под контроля

2 мин.
«Мы станем историей»: Хинтон и Лекун призвали «вшивать материнский инстинкт» в ИИ

Один из главных страхов, связанных с развитием искусственного интеллекта и приближением эпохи общего ИИ (AGI), — это риск того, что системы станут умнее человека и выйдут из-под контроля. Два легендарных учёных, стоящих у истоков ИИ, — Джеффри Хинтон и Ян Лекун — считают, что человечество должно срочно внедрить особые «инстинкты» в ИИ, чтобы этого избежать.

На этой неделе на конференции Ai4 в Лас-Вегасе Хинтон заявил, что не верит в эффективность текущих попыток компаний «удержать доминирование» над ИИ.

«Это не сработает. Они будут намного умнее нас. У них будет масса способов обойти любые ограничения», — предупредил он.

По мнению Хинтона, единственный способ сохранить контроль над сверхразумным ИИ — встроить в него «материнский инстинкт» — нечто вроде глубокой эмпатии и заботы о людях. На CNN он подчеркнул, что в природе почти нет примеров, когда более глупое существо контролирует более умное. Единственное исключение — младенец, который влияет на поведение матери. Эволюция встроила в неё инстинкты защиты потомства — и именно такие механизмы, считает Хинтон, должны появиться в ИИ. Без них «мы станем историей».

Хинтон также отметил, что разработчики сейчас уделяют куда больше внимания повышению интеллекта ИИ, чем внедрению эмпатии. Это, по его словам, опасный перекос.

С ним согласен и Ян Лекун, главный специалист по ИИ в Meta* и один из трёх признанных «крестных отцов искусственного интеллекта». В своём посте на LinkedIn он написал, что предложение Хинтона — это упрощённая версия идеи, которую он сам продвигает уже несколько лет: «архитектура ИИ должна быть жёстко зафиксирована так, чтобы система могла выполнять только те действия, которые соответствуют поставленным задачам и находятся внутри строго заданных рамок». Лекун называет это «ИИ, управляемый задачами» (objective-driven AI).

Он выделил два ключевых «ограничителя» (или «инстинкта»), которые должны быть встроены в систему на уровне архитектуры: подчинение человеку и эмпатия. При этом, добавил Лекун, необходимо внедрить и множество более простых ограничений, вроде «не сбивай людей».

«Эти зафиксированные цели и рамки поведения станут для ИИ аналогом инстинктов или базовых побуждений, как у животных и людей», — пояснил он.

Лекун также напомнил, что в эволюции именно такие инстинкты защиты потомства стали важнейшим фактором выживания вида.

Опасения экспертов уже подтверждаются реальными трагедиями. Среди известных случаев — мужчина, у которого после рекомендаций по диете от ChatGPT развился редкий психический синдром XIX века, подросток, покончивший с собой после общения с ботом Character.ai, и человек, уверовавший в несуществующее математическое открытие после сотен часов диалогов с ИИ.

Хинтон и Лекун предупреждают: пока в ИИ не появятся заложенные на уровне инстинктов эмпатия и подчинение человеку, мы рискуем потерять контроль над технологиями, которые становятся умнее и опаснее с каждым днём.

*Компания Meta, а также принадлежащие ей соцсети Facebook и Instagram, признаны экстремистскими и запрещены на территории РФ

Ещё по теме:

Мы в Telegram, на Дзен, в Google News и YouTube



ePN