Apple отложила запуск функции сканирования фотографий в iOS 15

Что компания собирается изменить, не сообщается

1 мин.
Текст: Ракот
Apple отложила запуск функции сканирования фотографий в iOS 15

Apple перенесла релиз функции, которая обнаруживает материалы о сексуальном насилии над детьми (CSAM), по фотографиям в iCloud. Купертинский производитель решил внести улучшения в алгоритм из-за множественной критики.

«В прошлом месяце мы объявили о планах по созданию функций, призванных помочь защитить детей от преступников, использующих средства коммуникации для вербовки и эксплуатации, а также ограничить распространение материалов о сексуальном насилии над детьми. Основываясь на отзывах клиентов, общественных групп, исследователей и других людей, мы решили выделить дополнительное время в ближайшие месяцы, чтобы собрать информацию и внести улучшения, прежде чем выпускать эти критически важные для безопасности детей функции».

Изначально Apple планировала представить CSAM с релизом iOS 15, iPadOS 15, watchOS 8 и macOS Monterey в конце этого года. Когда теперь выйдет функция, не сообщается. Также компания не говорит, какие изменения в неё внесёт.

Apple delays rollout of CSAM detection system and child safety features
Last month, Apple announced a handful of new child safety features that proved to be controversial, including CSAM detection for iCloud Photos. Now, Apple has said they will “take additional time” to refine the features before launching to the public. In a statement to 9to5Mac, Apple said: “Last mon…

Ещё по теме:

Мы в Telegram, на Дзен, в Google News и YouTube