Эксперты утверждают, что искусственный интеллект будет так же опасен, как пандемии и ядерная война, и что его необходимо строго контролировать.
Институт Future of Life ранее опубликовал открытое письмо с предупреждением об опасности искусственного интеллекта, которое подписали более 1000 человек, включая Стива Возняка и Илона Маска. Это письмо касалось потенциальной опасности «вышедшего из-под контроля» развития систем ИИ.
«Снижение риска вымирания от ИИ должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война».
Теперь, в след за ним, Центр безопасности ИИ (CAIS) выпустил, по его словам, «лаконичное заявление», цель которого – «открыть дискуссию» о рисках развития искусственного интеллекта.
«Эксперты по ИИ, журналисты, политики и общественность всё чаще обсуждают широкий спектр важных и неотложных рисков, связанных с ИИ», – говорится на сайте CAIS. «Несмотря на это, бывает трудно сформулировать озабоченность по поводу некоторых наиболее серьёзных рисков продвинутого ИИ».
«[Заявление] также призвано создать общее представление о растущем числе экспертов и общественных деятелей, которые также серьезно относятся к некоторым из наиболее серьезных опасностей продвинутого ИИ», – говорится далее.
В настоящее время свою подпись под заявлением поставили около 370 экспертов, в том числе генеральный директор OpenAI Сэм Альтман и несколько руководителей и менеджеров Google, работающих над искусственным интеллектом.
CAIS базируется в Сан-Франциско. Судя по сообщениям в LinkedIn и онлайн-рассылкам, она была сформирована в 2021 году и увеличилась в начале 2023 года.
Организация заявляет, что её целью является расширение «исследовательской области безопасности ИИ путём предоставления финансирования, исследовательской инфраструктуры и образовательных ресурсов». В их число входит финансирование семинара по безопасности машинного обучения стоимостью $100 000 на конференции NeurIPS 2022.
Среди подписавших заявление CAIS – доктор Джеффри Хинтон. Известный как «крестный отец ИИ», Хинтон недавно уволился из Google, сославшись на необходимость повышения осведомлённости об опасностях ИИ.
Ещё по теме: