Apple відкладає суперечливу функцію «Захист дітей» після критики конфіденційності
Apple відкладає запуск своїх функцій захисту дітей і піддається критиці, що ця функція нібито загрожує конфіденційності користувачів. Резонанс викликав одну конкретну функцію, оголошену минулого місяця, яка буде сканувати фотографії користувачів на предмет сексуального насильства над дітьми (CSAM) – функція, яку планують запустити до кінця цього року.
Технологічний гігант у заяві для The Verge сказав:
«Минулого місяця ми оголосили про плани щодо функцій, призначених для захисту дітей від хижаків, які використовують засоби комунікації, щоб вербувати та експлуатувати їх, і обмежити поширення матеріалів сексуального насильства над дітьми».
Крім того, він додав, що на основі критичних відгуків, які вони отримали від дослідників, клієнтів, адвокатських груп тощо, вони вирішили витратити ще трохи часу, щоб зібрати відгуки та внести певні покращення в найближчі місяці, перш ніж запровадити ці надзвичайно важливі функції, пов'язані з безпека дітей.
Фактичний прес-реліз Apple про зміни містив подібну заяву, як і вище, і мав на меті зменшити ескалацію матеріалів сексуального насильства над дітьми (CSAM). Прес-реліз охоплює три зміни в його роботах: Перша полягала в тому, щоб внести зміни в пошук, щоб цифровий помічник Siri вказував на ресурси, щоб запобігти CSAM, якщо користувач намагався шукати інформацію, пов’язану з ним.
Другий включав сповіщення батьків, якщо їхні діти отримують або надсилають фотографії відвертого сексуального характеру, і негайно розмивати ці зображення для дітей. І третя зміна зберігатиме відскановані зображення у фотографіях iCloud користувача для CSAM і повідомлятиме про них модераторам Apple, які потім продовжать процес і передадуть ці звіти до Національного центру зниклих і експлуатованих дітей (NCMEC).
Технічна компанія детально розробила систему сканування iCloud Photos, щоб гарантувати, що вона не послаблює конфіденційність користувачів. Однак для багатьох експертів із конфіденційності це дійсно була суперечлива зміна. Система сканування буде сканувати зображення, присутні на фотографіях iCloud користувача, і порівнювати ці зображення з тими, які є в базі даних призначених зображень CSAM від кількох організацій безпеки дітей, включаючи NCMEC.
Однак багато експертів з безпеки та конфіденційності критикували Apple за систему, заявляючи, що вона могла створити систему спостереження на пристрої та серйозно порушити довіру користувачів до Apple за захист конфіденційності на пристрої.
Electronic Frontier Foundation заявив у заяві від 5 серпня, що навіть якщо ця функція призначена для благополуччя, вона «порушить ключові обіцянки самого шифрування месенджера і відкриє двері для більших зловживань».
Хоча існує досить значна потреба в такій функції, ми не можемо не думати, чи мають рацію прихильники конфіденційності? Чи вплине ця функція на конфіденційність користувачів на пристроях iOS?
Однак скажімо, що навіть якщо технічний гігант збирається зашкодити довірі та конфіденційності користувачів, це буде не вперше. Раніше в цьому році Apple ловили на відстеження даних телеметрії користувачів без їх згоди. Ось чому ми пропонуємо вам додати додатковий рівень безпеки на свій пристрій iOS, використовуючи найкращу VPN для iPhone, доки не буде підтверджено, що функції захисту дітей не мають жодних загроз конфіденційності.