Apple sta ritardando il lancio delle sue funzionalità di protezione dei bambini e si sta piegando alle critiche secondo cui la funzionalità potrebbe minacciare la privacy degli utenti. La protesta riguardava una funzione specifica annunciata il mese scorso che avrebbe scansionato le immagini degli utenti alla ricerca di materiale pedopornografico (CSAM), una funzione prevista per il lancio entro la fine di quest'anno.
Il gigante della tecnologia, in una dichiarazione a The Verge, ha dichiarato:
"Il mese scorso abbiamo annunciato piani per funzionalità intese ad aiutare a proteggere i bambini dai predatori che utilizzano strumenti di comunicazione per reclutarli e sfruttarli e limitare la diffusione di materiale pedopornografico".
Ha inoltre aggiunto che, sulla base del feedback critico ricevuto da ricercatori, clienti, gruppi di difesa e altro, hanno deciso di dedicare un po' più di tempo per raccogliere feedback e apportare alcuni miglioramenti nei prossimi mesi prima di implementare queste funzionalità estremamente significative legate a sicurezza dei bambini.
L'effettivo comunicato stampa di Apple sulle modifiche conteneva una dichiarazione simile a quella sopra e aveva lo scopo di ridurre l'escalation di materiale pedopornografico (CSAM). Il comunicato stampa riguardava tre modifiche ai suoi lavori: la prima era quella di apportare modifiche alla ricerca in modo che l'assistente digitale Siri indichi risorse per prevenire CSAM se un utente provava a cercare informazioni ad esso correlate.
Il secondo includeva avvisare i genitori se i loro figli ricevono o inviano foto sessualmente esplicite e sfocano immediatamente quelle immagini per i bambini. E la terza modifica memorizzerebbe le immagini scansionate nelle foto di iCloud di un utente per CSAM e le segnalerebbe ai moderatori di Apple, che continuerebbero il loro processo e riferirebbero tali rapporti al National Center for Missing and Exploited Children (NCMEC).
La società tecnologica ha ulteriormente dettagliato il sistema di scansione di iCloud Photos per garantire che non indebolisca la privacy degli utenti. Tuttavia, questo, in effetti, è stato un cambiamento controverso per molti esperti di privacy. Il sistema di scansione acquisirà le immagini presenti sulle foto di iCloud di un utente e confronterà tali immagini da quelle presenti nel database delle immagini CSAM assegnate da più organizzazioni per la sicurezza dei bambini, incluso NCMEC.
Tuttavia, molti esperti di sicurezza e privacy hanno criticato Apple per il sistema, affermando che avrebbe potuto costruire un sistema di sorveglianza sul dispositivo e violato gravemente la fiducia dell'utente in Apple per la protezione della privacy sul dispositivo.
La Electronic Frontier Foundation ha dichiarato in una dichiarazione il 5 agosto che, anche se la funzione è destinata al benessere, "spezzerà le promesse chiave della crittografia del messenger stesso e aprirà la porta ad abusi più ampi".
Sebbene vi sia un'esigenza piuttosto significativa per una funzionalità come questa, non possiamo fare a meno di pensare, i sostenitori della privacy hanno ragione? La funzione influirà davvero sulla privacy degli utenti sui dispositivi iOS?
Tuttavia, diciamo solo che anche se il gigante della tecnologia sta per danneggiare la fiducia e la privacy degli utenti, non sarà per la prima volta. Apple è stata precedentemente sorpresa a tracciare i dati di telemetria degli utenti senza consenso all'inizio di quest'anno. Questo è il motivo per cui ti suggeriamo di aggiungere un ulteriore livello di sicurezza sul tuo dispositivo iOS utilizzando la migliore VPN per iPhone fino a quando non verrà confermato che le funzionalità di protezione dei bambini non presentano alcuna minaccia alla privacy.