Помимо того, что для «Фото iCloud» стало доступно сквозное шифрование, компания Apple объявила об отказе от своих спорных планов по обнаружению известных материалов о сексуальном насилии над детьми (CSAM), хранящихся в облаке пользователей, говорится в заявлении, поступившем в редакцию WIRED.
После обширных консультаций с экспертами для сбора отзывов об инициативах по защите детей, предложенных нами в прошлом году, мы усиливаем наши инвестиции в функцию Communication Safety, которую впервые сделали доступной в декабре 2021 года. Кроме того, мы решили не продвигать предложенный нами ранее инструмент обнаружения CSAM для «Фото iCloud».
Детей можно защитить и без привлечения организаций, копающихся в личных данных, и мы будем продолжать работать с правительствами, детскими правозащитными организациями и другими компаниями, чтобы помочь защитить несовершеннолетних, сохранить их право на частную жизнь и сделать интернет более безопасным местом для них и для всех нас.
В августе 2021 года компания Apple объявила о планах по созданию трёх новых функций безопасности для детей, включая систему обнаружения известных изображений CSAM, хранящихся в iCloud Photos, опцию Communication Safety, которая размывает сексуально откровенные фотографии в приложении «Сообщения», и ресурсы по детской эксплуатации для Siri.
Функция Communication Safety была запущена в США с iOS 15.2 в декабре 2021 года и с тех пор распространилась на Великобританию, Канаду, Австралию и Новую Зеландию, ресурсы Siri также доступны, но обнаружения CSAM так и не было реализована.
Первоначально Apple заявила, что обнаружение CSAM будет реализовано в обновлении iOS 15 и iPadOS 15 к концу 2021 года, но в итоге отложила реализацию, основываясь на «отзывах клиентов, правозащитных групп, исследовательских организаций и других». Теперь, после года молчания, Apple полностью отказалась от планов по выявлению CSAM.
Apple обещала, что её система обнаружения изображений была «разработана с учётом конфиденциальности пользователей». Она должна была выполнять «сопоставление фотографий на устройстве с использованием базы данных известных хэшей изображений» от организаций по безопасности детей, которые Apple преобразует в «нечитаемый набор хэшей, надёжно хранящийся на устройствах пользователей».
Apple планировала сообщать о выявленных учётных записях iCloud с известными хэшами изображений CSAM в Национальный центр пропавших и эксплуатируемых детей (NCMEC), некоммерческую организацию, которая работает в сотрудничестве с правоохранительными органами США.
Компания заявила, что будет установлен порог, который обеспечит «менее одного на один триллион шанса в год» того, что учётная запись будет неправильно отмечена системой, плюс будет проводиться ручная модерация отмеченных учётных записей человеком.
Планы Apple подверглись критике со стороны широкого круга лиц и организаций, включая исследователей безопасности, Electronic Frontier Foundation (EFF), политиков, политические группы, университетских исследователей и даже некоторых сотрудников Apple.
Некоторые критики утверждали, что эта функция создала бы бэкдор в устройствах, который правительства или правоохранительные органы могли бы использовать для слежки за пользователями. Другой проблемой были ложные срабатывания, включая возможность того, что кто-то намеренно добавит CSAM-изображения в аккаунт iCloud другого человека, чтобы его компрометировать.
Ещё по теме:
- Apple Music Sing стала доступна в iOS 16.2 Release Candidate
- Apple представила новые функции безопасности для iMessage и Apple ID, которые появятся в 2023 году
- Китайский импорт микросхем достиг самого резкого падения в этом году на фоне перебоев в производстве, технологической войны с США и экономических санкций