Эксперт по безопасности утверждает, что компания Apple собирается анонсировать инструменты идентификации фотографий, которые будут выявлять изображения насилия над детьми в фотобиблиотеках iOS.
Ранее Apple уже удаляла отдельные приложения из App Store из-за опасений по поводу детской порнографии, но теперь, как утверждается, собирается внедрить такую систему обнаружения в целом. Используя хэширование фотографий, айфоны смогут выявлять на устройстве материалы о сексуальном насилии над детьми (CSAM – Child Sexual Abuse Material).
Apple не подтвердила эту информацию, и пока единственным источником является Мэтью Грин, криптограф и доцент Института информационной безопасности Джона Хопкинса.
По словам Грина, первоначально планируется, что все обнаружение будет осуществляться на стороне клиента – то есть на iPhone пользователя. Однако он утверждает, что, возможно, это начало процесса, который приведет к слежке за трафиком данных, отправляемых и получаемых со смартфона.
«В конечном итоге это может стать ключевым компонентом для добавления наблюдения в системы обмена зашифрованными сообщениями», – рассказывает Грин. «Возможность добавления подобных систем сканирования к системам обмена сообщениями E2E [end to end encryption] была главной «просьбой» правоохранительных органов во всем мире».
«Такой инструмент может стать благом для поиска детской порнографии в телефонах людей», – сказал он. «Но представьте, что он может сделать в руках авторитарного правительства?».
Грин, который вместе со своими студентами, изучающими криптографию, ранее сообщал о том, как правоохранительные органы могут взломать iPhone. Он и Университет Джонса Хопкинса также ранее работали с Apple над исправлением ошибки безопасности в Messages.
Ещё по теме:
- Хакерский инструмент Pegasus используется для шпионажа за журналистами и активистами
- AirPods Pro получили функцию Conversation Boost в последней бета-версии прошивки
- Apple по-прежнему отстаёт от Amazon и Google по продажам «умных» колонок