Эксперт по безопасности утверждает, что компания Apple собирается анонсировать инструменты идентификации фотографий, которые будут выявлять изображения насилия над детьми в фотобиблиотеках iOS.

Ранее Apple уже удаляла отдельные приложения из App Store из-за опасений по поводу детской порнографии, но теперь, как утверждается, собирается внедрить такую систему обнаружения в целом. Используя хэширование фотографий, айфоны смогут выявлять на устройстве материалы о сексуальном насилии над детьми (CSAM – Child Sexual Abuse Material).

Apple не подтвердила эту информацию, и пока единственным источником является Мэтью Грин, криптограф и доцент Института информационной безопасности Джона Хопкинса.

Я получил независимое подтверждение от нескольких человек, что завтра Apple выпустит клиентский инструмент для сканирования CSAM. Это плохая идея.

По словам Грина, первоначально планируется, что все обнаружение будет осуществляться на стороне клиента – то есть на iPhone пользователя. Однако он утверждает, что, возможно, это начало процесса, который приведет к слежке за трафиком данных, отправляемых и получаемых со смартфона.

«В конечном итоге это может стать ключевым компонентом для добавления наблюдения в системы обмена зашифрованными сообщениями», – рассказывает Грин. «Возможность добавления подобных систем сканирования к системам обмена сообщениями E2E [end to end encryption] была главной «просьбой» правоохранительных органов во всем мире».

«Такой инструмент может стать благом для поиска детской порнографии в телефонах людей», – сказал он. «Но представьте, что он может сделать в руках авторитарного правительства?».

Грин, который вместе со своими студентами, изучающими криптографию, ранее сообщал о том, как правоохранительные органы могут взломать iPhone. Он и Университет Джонса Хопкинса также ранее работали с Apple над исправлением ошибки безопасности в Messages.


Apple reportedly plans to make iOS detect child abuse photos | AppleInsider
A security expert claims that Apple is about to announce photo identification tools that would identify child abuse images in iOS photo libraries.

Ещё по теме: