Бывший сотрудник Google обвинил корпорацию в нарушении политики этики искусственного интеллекта. По данным жалобы информатора, направленной в Комиссию по ценным бумагам и биржам США (SEC), в 2024 году компания оказывала техническую поддержку израильскому военному подрядчику в анализе видеозаписей с дронов. Детали документа опубликовало издание The Jerusalem Post.
Согласно жалобе, Google нарушила собственные «принципы ИИ», действовавшие на момент инцидента. Эти правила прямо запрещали использование технологий компании для слежки, «нарушающей международно признанные нормы», а также в проектах, связанных с вооружением.
«Баг» в системе распознавания целей
В жалобе, поданной в SEC, описывается инцидент, когда подразделение облачных вычислений Google получило запрос в службу поддержки. Письмо было отправлено с адреса электронной почты, принадлежащего Армии обороны Израиля (ЦАХАЛ). При этом имя клиента в запросе совпадало с именем сотрудника израильской технологической компании CloudEx. В документе утверждается, что CloudEx является официальным подрядчиком ЦАХАЛ.
Согласно внутренним документам, приложенным к жалобе, клиент обратился за помощью из-за ошибки при работе с нейросетью Gemini. ИИ использовался для анализа кадров аэросъёмки, но программное обеспечение периодически давало сбои и не могло идентифицировать дроны, солдат и другие объекты.
Сотрудники службы поддержки Google Cloud, как сообщается, провели внутреннее тестирование и предложили технические решения. После серии сообщений между представителем CloudEx и персоналом Google проблема, по всей видимости, была устранена.
В переписке по заявке также фигурировал ещё один сотрудник Google. Информатор утверждает, что этот специалист непосредственно занимался обслуживанием облачного аккаунта ЦАХАЛ. В жалобе заявлено, что кадры аэросъемки относились к израильским операциям в секторе Газа в ходе войны с ХАМАС, однако конкретных доказательств этого утверждения в документах не приводится.
«Двойные стандарты» и позиция Google
Автор жалобы настаивает, что реакция службы поддержки противоречила публично заявленной политике Google и ранее поданным федеральным отчётам. Информатор обвиняет компанию в нарушении законов о ценных бумагах, а также во введении в заблуждение регуляторов и инвесторов.
Бывший сотрудник рассказал, что многие проекты в Google проходили строгие процедуры проверки этичности ИИ.
«Этот процесс надёжен, и нам, как сотрудникам, регулярно напоминали, насколько важны "Принципы ИИ" компании», — говорится в анонимном заявлении.
Однако, по словам информатора, «когда дело касалось Израиля и Газы, всё было ровно наоборот». Он подчеркнул, что обратился в SEC, так как считал, что компания должна понести ответственность за свои «двойные стандарты».
Представитель Google отверг обвинения. Он отметил, что действия техподдержки не нарушали этику ИИ, поскольку использование сервисов Gemini заказчиком было слишком незначительным, чтобы считаться «существенным».
«Тикет [в службу поддержки] поступил с аккаунта, ежемесячные траты которого на ИИ-продукты составляли менее пары сотен долларов, что делает любое значимое использование ИИ невозможным», — заявил представитель компании.
Он добавил, что сотрудники просто «ответили на вопрос общего характера, как сделали бы для любого клиента, предоставив стандартную справочную информацию, и не оказывали никакой дополнительной технической помощи».
The Jerusalem Post отмечает, что жалоба в SEC может быть подана любым физическим лицом и не гарантирует автоматического начала расследования.
Стоит добавить, что в феврале 2025 года Google обновила раздел своей политики в области ИИ. Компания убрала прямой запрет на использование своих технологий для наблюдения (или слежки) и создания оружия, заявив о необходимости помогать демократически избранным правительствам адаптироваться к глобальному распространению искусственного интеллекта.