Эксперты утверждают, что искусственный интеллект может привести человечество к вымиранию, если его не контролировать

Его ставят в одну линейку вместе с пандемиями и ядерной войной.

1 мин.
Эксперты утверждают, что искусственный интеллект может привести человечество к вымиранию, если его не контролировать

Эксперты утверждают, что искусственный интеллект будет так же опасен, как пандемии и ядерная война, и что его необходимо строго контролировать.

Институт Future of Life ранее опубликовал открытое письмо с предупреждением об опасности искусственного интеллекта, которое подписали более 1000 человек, включая Стива Возняка и Илона Маска. Это письмо касалось потенциальной опасности «вышедшего из-под контроля» развития систем ИИ.

«Снижение риска вымирания от ИИ должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война».

Теперь, в след за ним, Центр безопасности ИИ (CAIS) выпустил, по его словам, «лаконичное заявление», цель которого – «открыть дискуссию» о рисках развития искусственного интеллекта.

«Эксперты по ИИ, журналисты, политики и общественность всё чаще обсуждают широкий спектр важных и неотложных рисков, связанных с ИИ», – говорится на сайте CAIS. «Несмотря на это, бывает трудно сформулировать озабоченность по поводу некоторых наиболее серьёзных рисков продвинутого ИИ».

«[Заявление] также призвано создать общее представление о растущем числе экспертов и общественных деятелей, которые также серьезно относятся к некоторым из наиболее серьезных опасностей продвинутого ИИ», – говорится далее.

В настоящее время свою подпись под заявлением поставили около 370 экспертов, в том числе генеральный директор OpenAI Сэм Альтман и несколько руководителей и менеджеров Google, работающих над искусственным интеллектом.

CAIS базируется в Сан-Франциско. Судя по сообщениям в LinkedIn и онлайн-рассылкам, она была сформирована в 2021 году и увеличилась в начале 2023 года.

Организация заявляет, что её целью является расширение «исследовательской области безопасности ИИ путём предоставления финансирования, исследовательской инфраструктуры и образовательных ресурсов». В их число входит финансирование семинара по безопасности машинного обучения стоимостью $100 000 на конференции NeurIPS 2022.

Среди подписавших заявление CAIS – доктор Джеффри Хинтон. Известный как «крестный отец ИИ», Хинтон недавно уволился из Google, сославшись на необходимость повышения осведомлённости об опасностях ИИ.


Ещё по теме:

Мы в Telegram, на Дзен, в Google News и YouTube