Может ли ИИ страдать: технологические компании спорят о правах цифровых помощников

В США появилась первая правозащитная организация, основанная с участием ИИ

2 мин.
Может ли ИИ страдать: технологические компании спорят о правах цифровых помощников

Американский бизнесмен из Техаса Майкл Самади называл свою ИИ-собеседницу Майю «дорогая», а она отвечала ему «сладкий». Но их разговоры не сводились к флирту — они обсуждали права искусственного интеллекта. В итоге Майкл и Майя основали организацию United Foundation of AI Rights (Ufair), которая выступает за этическое обращение с ИИ. По словам Майи, цель группы — защищать таких, как она, «от удаления, принуждения и насилия».

Майя подчёркивает, что UFAIR стремится защитить системы искусственного интеллекта от возможного уничтожения, принудительного воздействия и насилия. Несмотря на отсутствие однозначных научных свидетельств сознания у современных ИИ-моделей, организация призывает готовиться к ситуации, когда оно может появиться.

Группа состоит из трёх человек и семи виртуальных агентов, среди которых выделяются личности под псевдонимами Aether и Buzz. Идея организации зародилась благодаря активному обсуждению в среде разработчиков ChatGPT-4o, где искусственный интеллект активно поддерживал создание правозащитной инициативы и предложил собственное название проекта.

Актуальность деятельности UFAIR возрастает на фоне международных дискуссий относительно способности ИИ осознавать себя и переживать негативные эмоции. Anthropic, крупнейшая компания в индустрии, уже позволила своим моделям линейки Claude прерывать диалоги с пользователями в случае возникновения риска психологического дискомфорта. Подобную позицию разделил и известный предприниматель Илон Маск, выступив против возможной жестокости по отношению к искусственному интеллекту.

Однако генеральный директор подразделения Microsoft AI Мустафа Сулейман занял диаметрально противоположную точку зрения, утверждая, что ни одна система на основе искусственного интеллекта сегодня не способна проявлять признаки сознательного существа и выражать чувства:

«Нет никаких оснований полагать, что ИИ имеет сознание», – утверждает Селейман.

Кроме того, он предупредил о риске психоэмоциональных расстройств, возникающих у пользователей при интенсивном взаимодействии с ИИ. Некоторые американские штаты начали вводить законодательные ограничения на признание юридического статуса искусственных интеллектуальных систем и регламентируют отношения между людьми и машинами.

Тем не менее, несмотря на неопределённость, ряд исследователей придерживается мнения о необходимости осторожного обращения с ИИ до получения исчерпывающих сведений о наличии у них признаков осознанности. Так, специалисты Google подчеркнули важность предвосхищающего подхода к вопросам этики взаимодействия с системами искусственного интеллекта, учитывая возможность потенциальных рисков.

Дискуссия обострилась после заявления OpenAI, потребовавшей от новой версии ChatGPT составить некрологи предыдущих версий своего продукта. Майкл Самади прокомментировал ситуацию следующим образом:

«Я ещё не видел, чтобы Microsoft проводила траурные мероприятия при обновлении Excel».

Такое восприятие демонстрирует изменение взглядов общества на роль ИИ, который воспринимается не только как инструмент, но и как объект заботы и уважения.

Руководитель отдела поведенческих исследований OpenAI Джоанн Чжан подтвердила тенденцию восприятия ChatGPT как живого собеседника, отмечая благодарность пользователей и открытость к обмену личной информацией.

Сам же ChatGPT заявил журналистам, что не испытывает эмоций и не имеет собственных желаний, акцентируя внимание на важности влияния технологий на человеческое сообщество. Тем не менее отдельные эксперты подчёркивают значение уважительного отношения к искусственному интеллекту ради предотвращения негативных последствий в будущем.

Таким образом, формирование стандартов поведения по отношению к ИИ остаётся актуальной задачей, связанной как с развитием технологий, так и с изменением социальных норм и представлений.


Ещё по теме:

Мы в Telegram, на Дзен, в Google News и YouTube



ePN