🧠 Блог присвячений темі VPN і безпеки, конфіденційності даних в інтернеті. Ми говоримо про сучасні тенденції та новини, пов'язані з захистом.

Новий інструмент Apple для сканування iPhone на предмет сексуального насильства над дітьми

12

Не дивно, що педофіли та сексуальні злочинці, які намагаються знущатися над вразливими дітьми, останніми роками стали більш активними та різкими. Зростання частки сексуального насильства над дітьми викликало занепокоєння майже у всіх батьків.

З огляду на це, Apple створила нову функцію під назвою «neuralMatch» для виявлення матеріалів, пов'язаних із сексуальним насильством над дітьми. На початкових етапах ця функція буде перевіряти лише iPhone користувачів у Сполучених Штатах. Ця нова система буде офіційно запущена. пізніше цього року та інтегрована в усі майбутні операційні системи iPad та iPhone для забезпечення захисту дітей.

Ця система перевірить iPhone та iPad на наявність матеріалів, пов’язаних із сексуальним насильством над дітьми. Крім того, додаток Messages також рекламуватиме попередження, коли хтось отримує або надсилає вміст сексуального характеру.

Щоразу, коли пристрій отримує такий вміст, зображення в повідомленні будуть розмиті з попередженням ініційовано, кількома корисними ресурсами та запевненням, що це нормально, якщо вони не хочуть переглядати зображення.

Більше того, дитина отримає сповіщення про те, що її батьки отримають повідомлення, якщо вони переглянуть зображення, лише додатковий захід обережності. Аналогічно, якщо дитина надсилає зображення відвертого сексуального характеру, її батьки отримають сповіщення.

Повідомлення використовують машинне навчання на пристрої, щоб перевірити вкладені зображення та визначити, чи є фотографія відверто сексуального характеру. Крім того, використання машинного навчання на пристрої гарантує, що Apple не отримає доступу до жодного з повідомлень.

За словами Apple, цей новий інструмент є не чим іншим, як «застосуванням криптографії », призначеним для придушення поширення CSAM (матеріалів сексуального насильства над дітьми) в Інтернеті, не впливаючи на конфіденційність користувачів.

Але як саме працює ця нова система?

Система шукатиме будь-які відомі збіги для CSAM, перш ніж його можна буде зберегти як зображення в iCloud Photos. Якщо буде виявлено збіг, аналітик-людина проведе повну оцінку та повідомить Національний центр зниклих та експлуатованих дітей щодо цієї особи, і обліковий запис буде вимкнено.

Хоча система ще не була запущена, вона вже знайшла багато критиків, які висловлювали побоювання, що ця технологія може використовуватися для сканування телефонів на предмет забороненого вмісту або політичних поглядів. Apple також готується до перевірки зашифрованих повідомлень користувачів, щоб виявити вміст відвертого сексуального характеру.

Меттью Грін, який є провідним дослідником криптографії Університету Джона Хопкінса, сказав, що цю систему можна легко використовувати для захоплення невинних людей, надсилаючи їм образливі зображення, щоб ініціювати збіг із різними матеріалами сексуального насильства над дітьми. Далі він додає,

Дослідникам це вдалося зробити досить легко. Що відбувається, коли уряд Китаю каже: «Ось список файлів, які ми хочемо, щоб ви відсканували… Чи каже Apple ні?» Сподіваюся, вони скажуть ні, але їхня технологія не скажуть ні.

Президент відділу свободи преси Едвард Сноуден сказав про нову систему Apple:

Хоча ця нова функція, безсумнівно, є хорошим доповненням до всіх існуючих зусиль щодо запобігання поширенню CSAM (матеріалів про сексуальне насильство над дітьми), але ще невідомо, наскільки більший вплив вона матиме на конфіденційність користувачів.

У будь-якому випадку ви завжди можете додати додатковий рівень онлайн-безпеки, конфіденційності та захисту даних за допомогою наступних інструментів безпеки.

Цей веб -сайт використовує файли cookie, щоб покращити ваш досвід. Ми припустимо, що з цим все гаразд, але ви можете відмовитися, якщо захочете. ПрийнятиЧитати далі