Apple перенесла релиз функции, которая обнаруживает материалы о сексуальном насилии над детьми (CSAM), по фотографиям в iCloud. Купертинский производитель решил внести улучшения в алгоритм из-за множественной критики.
«В прошлом месяце мы объявили о планах по созданию функций, призванных помочь защитить детей от преступников, использующих средства коммуникации для вербовки и эксплуатации, а также ограничить распространение материалов о сексуальном насилии над детьми. Основываясь на отзывах клиентов, общественных групп, исследователей и других людей, мы решили выделить дополнительное время в ближайшие месяцы, чтобы собрать информацию и внести улучшения, прежде чем выпускать эти критически важные для безопасности детей функции».
Изначально Apple планировала представить CSAM с релизом iOS 15, iPadOS 15, watchOS 8 и macOS Monterey в конце этого года. Когда теперь выйдет функция, не сообщается. Также компания не говорит, какие изменения в неё внесёт.
Ещё по теме: