Apple откладывает запуск своих функций защиты детей и склоняется к критике, что эта функция якобы угрожает конфиденциальности пользователей. Возмущение было вызвано одной конкретной функцией, объявленной в прошлом месяце, которая будет сканировать фотографии пользователей на наличие материалов о сексуальном насилии над детьми (CSAM) — функция, которую планируется развернуть к концу этого года.
Технический гигант в заявлении для The Verge сказал:
«В прошлом месяце мы объявили о планах по функциям, призванным помочь защитить детей от хищников, которые используют средства связи для их вербовки и эксплуатации, а также ограничить распространение материалов о сексуальном насилии над детьми».
Далее было добавлено, что, основываясь на критических отзывах, которые они получили от исследователей, клиентов, групп защиты интересов и т. д., они решили потратить еще немного времени на сбор отзывов и внести определенные улучшения в ближайшие месяцы, прежде чем развертывать эти чрезвычайно важные функции, связанные с безопасность ребенка.
Фактический пресс-релиз Apple об изменениях содержал заявление, аналогичное приведенному выше, и был предназначен для уменьшения эскалации материалов о сексуальном насилии над детьми (CSAM). В пресс-релизе говорилось о трех изменениях в его работе: во -первых, были внесены изменения в поиск, чтобы цифровой помощник Siri указывал на ресурсы, чтобы предотвратить CSAM, если пользователь пытался искать информацию, связанную с ним.
Вторая включала оповещение родителей, если их дети получают или отправляют фотографии откровенно сексуального характера, и немедленное размытие этих изображений для детей. И третье изменение будет хранить отсканированные изображения в фотографиях iCloud пользователя для CSAM и сообщать о них модераторам Apple, которые затем продолжат свой процесс и направят эти отчеты в Национальный центр пропавших без вести и эксплуатируемых детей (NCMEC).
Техническая компания подробно описала систему сканирования iCloud Photos, чтобы убедиться, что она не ослабляет конфиденциальность пользователей. Однако это действительно было спорным изменением для многих экспертов по конфиденциальности. Система сканирования будет сканировать изображения, присутствующие в фотографиях iCloud пользователя, и сравнивать эти изображения с изображениями, присутствующими в базе данных назначенных изображений CSAM из нескольких организаций по безопасности детей, включая NCMEC.
Однако многие эксперты по безопасности и конфиденциальности раскритиковали Apple за эту систему, заявив, что она могла создать систему наблюдения на устройстве и серьезно подорвала доверие пользователей к Apple в отношении защиты конфиденциальности на устройстве.
Фонд Electronic Frontier Foundation заявил в своем заявлении от 5 августа, что даже если эта функция предназначена для благополучия, она «нарушит ключевые обещания самого шифрования мессенджера и откроет дверь для более широких злоупотреблений».
Хотя потребность в такой функции весьма значительна, мы не можем не задуматься, правы ли защитники конфиденциальности? Будет ли эта функция действительно влиять на конфиденциальность пользователей на устройствах iOS?
Однако давайте просто скажем, что даже если технический гигант собирается нанести ущерб доверию пользователей и конфиденциальности, это будет не в первый раз. Ранее в этом году Apple уже уличали в отслеживании данных телеметрии пользователей без их согласия. Вот почему мы предлагаем вам добавить дополнительный уровень безопасности на ваше устройство iOS, используя лучший VPN для iPhone, пока не будет подтверждено, что функции защиты от детей не представляют никакой угрозы конфиденциальности.