Компания Google, некогда известная своим девизом «Не будь злом», сделала ещё один шаг в сторону от своих первоначальных принципов. На этот раз изменения коснулись её подхода к искусственному интеллекту: компания тихо удалила ключевой раздел своих принципов ИИ, который ранее обязывал её избегать использования технологии в потенциально вредоносных приложениях, таких как оружие.
Этот шаг, замеченный агентством Bloomberg, знаменует собой значительный сдвиг в позиции Google по вопросам этики в разработке ИИ. Удалённый раздел, под названием «Приложения для искусственного интеллекта, которые мы не будем разрабатывать», прямо заявлял, что Google не станет разрабатывать технологии, «которые причиняют или, вероятно, могут причинить общий вред», с конкретным указанием на оружие как пример.
В ответ на запросы об этих изменениях Google сослалась на запись в блоге, написанную Джеймсом Маникой, старшим вице-президентом компании, и Демисом Хассабисом, возглавляющим Google DeepMind. Авторы поста заявили, что демократии должны возглавить разработку ИИ, руководствуясь такими ценностями, как свобода, равенство и уважение прав человека. Они также призвали к сотрудничеству между компаниями, правительствами и организациями для создания ИИ, который защищает людей, способствует глобальному росту и поддерживает национальную безопасность.
Однако этот шаг вызвал обеспокоенность экспертов. Маргарет Митчелл, бывший соруководитель команды этичного ИИ в Google и нынешний главный специалист по этике в Hugging Face, выразила опасения относительно последствий удаления пункта о «вреде». По её словам, это может означать, что Google теперь начнёт работать над внедрением технологий, которые могут быть использованы для причинения вреда, включая создание оружия.
Ревизия принципов ИИ у Google отражает более широкую тенденцию среди технологических компаний отказываться от ранее провозглашаемых обязательств. Например, Meta* и Amazon недавно сократили свои программы по разнообразию и инклюзивности (DEI).
Несмотря на то, что Google до недавнего времени утверждала, что её ИИ не используется для причинения вреда людям, компания начала всё больше сотрудничать с военными структурами. В последние годы она предоставляла облачные услуги военным США и Израиля, что вызвало внутренние протесты со стороны сотрудников.
Google, вероятно, осознаёт, что её новый подход вызовет негативную реакцию. Однако компания, скорее всего, считает, что преимущества перевешивают недостатки. Теперь она сможет напрямую конкурировать с другими технологическими гигантами, уже участвующими в военных проектах. Кроме того, этот шаг может привлечь дополнительное финансирование от государственных источников, что ускорит развитие её технологий.
Остаётся вопрос: какую цену обществу придётся заплатить за эту стратегическую переориентацию? Пока Google движется вперёд, её решения будут тщательно анализироваться как экспертами, так и общественностью, особенно в контексте растущих опасений по поводу военного применения искусственного интеллекта.
Ещё по теме:
- Слухи: новый чип M5 от Apple запущен в массовое производство
- Новые власти США намерены взять на работу в правительство искусственный интеллект
- Apple грозит антимонопольное расследование в отношении App Store в Китае