Скрытая угроза: Apple обвиняют в игнорировании проблемы детского насилия в Сети

Количество случаев в сервисах Apple значительно выше, чем сообщает компания

2 мин.
Скрытая угроза: Apple обвиняют в игнорировании проблемы детского насилия в Сети

Национальное общество по предотвращению жестокого обращения с детьми (NSPCC) Великобритании выступило с шокирующим заявлением: количество случаев использования изображений насилия в отношении несовершеннолетних на платформах Apple значительно превышает официальные данные, предоставленные компанией.

По информации NSPCC, только в Англии и Уэльсе за период с апреля 2022 по март 2023 года было зафиксировано 337 правонарушений, связанных с материалами о сексуальном насилии над детьми (CSAM) в сервисах Apple. Эта цифра резко контрастирует с глобальным отчётом компании, в котором упоминается лишь о 267 случаях по всему миру за прошлый год.

Ричард Коллард, глава отдела политики безопасности детей в интернете NSPCC, выразил серьёзную озабоченность ситуацией:

«Существует тревожное несоответствие между количеством преступлений с использованием изображений насилия над детьми в Великобритании, зарегистрированных на сервисах Apple, и почти ничтожным числом сообщений об этом контенте, которые они направляют властям. Apple явно отстаёт от многих своих коллег в борьбе с сексуальным насилием над детьми, в то время как все технологические компании должны инвестировать в безопасность и готовиться к введению в действие Закона об онлайн-безопасности в Великобритании».

Эксперты отмечают, что другие технологические гиганты демонстрируют более активную позицию в борьбе со CSAM. Так, Google сообщила о более чем 1,4 миллиона случаев в 2023 году, а Meta* — о почти 30 миллионах случаев на Facebook* и в Instagram* вместе взятых.

Apple объясняет низкое количество выявленных случаев тем, что не имеет доступа к зашифрованным сообщениям пользователей в iMessage. Однако критики указывают на пример WhatsApp, который, несмотря на шифрование, сообщил о более чем 1,3 миллиона подозрительных случаев за тот же период.

В 2022 году Apple отказалась от планов по внедрению системы обнаружения CSAM после обвинений в потенциальном нарушении приватности пользователей. Вместо этого компания представила функцию «Безопасность общения», которая размывает откровенные фотографии, отправляемые детям.

Ситуация вызывает особую тревогу в свете предстоящего внедрения Закона о безопасности в интернете в Великобритании. Эксперты призывают Apple и другие технологические компании активизировать усилия по защите детей в цифровом пространстве.

В то время как Apple продолжает ссылаться на приоритет конфиденциальности пользователей, растёт обеспокоенность по поводу баланса между защитой личных данных и безопасностью наиболее уязвимых пользователей — детей. Этот случай ещё раз подчёркивает необходимость тщательного пересмотра политик и практик технологических компаний в области защиты несовершеннолетних от цифровых угроз.​​​​​​​​​​​​​​​​


Ещё по теме:

Мы в Telegram, на Дзен, в Google News и YouTube