На проходящей в эти дни конференции CES 2020, директор по конфиденциальности Apple, Джейн Хорват, рассказала, что отныне компания автоматически сканирует изображения в ондайн-хранилище iCloud на предмет жестокого обращения с детьми.
Apple достаточно часто сталкивается с различными органами власти когда отказывается взламывать смартфоны потенциальных преступников, применяя, например, шифрование сообщений для защиты конфиденциальных данных своих пользователей.
Выступая на выставке, Хорват сказала, что расшифровка сообщений не решила бы изначальную проблему, однако добавила, что «Мы используем некоторые технологии, чтобы помочь отследить материалы о сексуальном насилии над детьми».
«Apple стремится защищать детей во всей нашей экосистеме, где бы ни использовались наши продукты, и мы продолжаем поддерживать инновации в этой области.
«В рамках этого обязательства Apple использует технологию сопоставления изображений, которая помогает находить детей на фотографиях. Подобно фильтрам спама в электронной почте, наши системы используют электронные подписи для обнаружения подозрительной эксплуатации ребенка«Учетные записи с содержанием эксплуатации над детьми, нарушают наши условия обслуживания, и любые учетные записи, которые мы обнаружим с помощью этого алгоритма, будут отключены».
В компании не уточнили как именно они проверяют изображения на предмет жестокого обращения с детьми, однако многие технологические компании используют систему PhotoDNA, в которой изображения сравниваются с базой данных уже ранее идентифицированных изображений с использованием технологии, известной как «хеширование». Она также применяется у Facebook, Twitter и Google.