Apple отказалась от планов по обнаружению известных материалов о сексуальном насилии над детьми на iPhone

Достаточно спорную функцию решили не внедрять далее.

2 мин.
Apple отказалась от планов по обнаружению известных материалов о сексуальном насилии над детьми на iPhone

Помимо того, что для «Фото iCloud» стало доступно сквозное шифрование, компания Apple объявила об отказе от своих спорных планов по обнаружению известных материалов о сексуальном насилии над детьми (CSAM), хранящихся в облаке пользователей, говорится в заявлении, поступившем в редакцию WIRED.

После обширных консультаций с экспертами для сбора отзывов об инициативах по защите детей, предложенных нами в прошлом году, мы усиливаем наши инвестиции в функцию Communication Safety, которую впервые сделали доступной в декабре 2021 года. Кроме того, мы решили не продвигать предложенный нами ранее инструмент обнаружения CSAM для «Фото iCloud».

Детей можно защитить и без привлечения организаций, копающихся в личных данных, и мы будем продолжать работать с правительствами, детскими правозащитными организациями и другими компаниями, чтобы помочь защитить несовершеннолетних, сохранить их право на частную жизнь и сделать интернет более безопасным местом для них и для всех нас.

В августе 2021 года компания Apple объявила о планах по созданию трёх новых функций безопасности для детей, включая систему обнаружения известных изображений CSAM, хранящихся в iCloud Photos, опцию Communication Safety, которая размывает сексуально откровенные фотографии в приложении «Сообщения», и ресурсы по детской эксплуатации для Siri.

Функция Communication Safety была запущена в США с iOS 15.2 в декабре 2021 года и с тех пор распространилась на Великобританию, Канаду, Австралию и Новую Зеландию, ресурсы Siri также доступны, но обнаружения CSAM так и не было реализована.

Первоначально Apple заявила, что обнаружение CSAM будет реализовано в обновлении iOS 15 и iPadOS 15 к концу 2021 года, но в итоге отложила реализацию, основываясь на «отзывах клиентов, правозащитных групп, исследовательских организаций и других». Теперь, после года молчания, Apple полностью отказалась от планов по выявлению CSAM.

Apple планирует сделать так, чтобы iOS обнаруживала фотографии насилия над детьми на iPhone
Всё зависит от того, как и кем будет использоваться инструмент.

Apple обещала, что её система обнаружения изображений была «разработана с учётом конфиденциальности пользователей». Она должна была выполнять «сопоставление фотографий на устройстве с использованием базы данных известных хэшей изображений» от организаций по безопасности детей, которые Apple преобразует в «нечитаемый набор хэшей, надёжно хранящийся на устройствах пользователей».

Apple планировала сообщать о выявленных учётных записях iCloud с известными хэшами изображений CSAM в Национальный центр пропавших и эксплуатируемых детей (NCMEC), некоммерческую организацию, которая работает в сотрудничестве с правоохранительными органами США.

Компания заявила, что будет установлен порог, который обеспечит «менее одного на один триллион шанса в год» того, что учётная запись будет неправильно отмечена системой, плюс будет проводиться ручная модерация отмеченных учётных записей человеком.

Планы Apple подверглись критике со стороны широкого круга лиц и организаций, включая исследователей безопасности, Electronic Frontier Foundation (EFF), политиков, политические группы, университетских исследователей и даже некоторых сотрудников Apple.

Некоторые критики утверждали, что эта функция создала бы бэкдор в устройствах, который правительства или правоохранительные органы могли бы использовать для слежки за пользователями. Другой проблемой были ложные срабатывания, включая возможность того, что кто-то намеренно добавит CSAM-изображения в аккаунт iCloud другого человека, чтобы его компрометировать.


Ещё по теме:

Мы в Telegram, на Дзен, в Google News и YouTube