Европейская комиссия на этой неделе выпустит законопроект, который может обязать технологические компании, такие как Apple и Google, выявлять, удалять и сообщать правоохранительным органам о незаконных изображениях насилия над детьми на принадлежащих им платформах, утверждается в новом докладе, опубликованном сегодня.
Согласно утечке, полученной изданием Politico, ЕК считает, что добровольные меры, принятые некоторыми цифровыми компаниями, до сих пор «оказались недостаточными» в решении проблемы растущего злоупотребления онлайн-сервисами для обмена контентом, содержащим сексуальное насилие над детьми, поэтому комиссия хочет сделать обнаружение таких материалов обязательным.
После нескольких месяцев лоббирования, представители технологических компаний и организаций по защите прав детей, ждут, чтобы увидеть, насколько строгими могут быть правила, и как они будут работать без необходимости сканирования контента пользователей — практика, признанная незаконной Судом Европейского Союза в 2016 году.
Помимо того, как идентификация противоправных материалов будет происходить в рамках закона, группы по защите частной жизни и технологические компании обеспокоены тем, что решение исполнительной власти ЕС может привести к созданию «чёрных ходов» в сервисы обмена сообщениями со сквозным шифрованием, содержимое которых не может быть доступно хостинговой платформе.
Комиссар Комиссии по внутренним делам Илва Йоханссон заявила, что существуют технические решения для обеспечения безопасности разговоров при поиске незаконного контента, однако эксперты по кибербезопасности с этим не согласны.
Однако евродепутаты далеко не единодушны в этом вопросе. Реагируя на утечку информации об этом предложении, центристский евродепутат от партии Renew Europe Мориц Кёрнер сказал Politico, что предложение Комиссии будет означать «смерть конфиденциальности цифровой переписки».
Горячие дебаты отражают прошлогодние споры вокруг плана Apple по поиску CSAM (материалов о сексуальном насилии над детьми) на iPhone и iPad.
В августе 2021 года компания Apple объявила о планируемом наборе новых функций для обеспечения безопасности детей, включая сканирование фотографий в iCloud пользователей на наличие CSAM и функцию, предупреждающую детей и их родителей о получении или отправке фотографий сексуального характера. Последняя, и, возможно, менее спорная функция уже работает на платформе iMessage от Apple. Метод сканирования на наличие CSAM компания Apple ещё не применяла.
Ещё по теме: