...
🧠 Il blog è dedicato al tema vpn e sicurezza, privacy dei dati su Internet. Parliamo di tendenze attuali e notizie relative alla protezione.

Il nuovo strumento di Apple per scansionare iPhone alla ricerca di materiale pedopornografico

4

Non sorprende che i pedofili e gli autori di reati sessuali che cercano di abusare dei bambini vulnerabili siano diventati più attivi e acuti negli ultimi anni. La percentuale crescente di abusi sessuali su minori ha preoccupato quasi tutti i genitori.

Tenendo presente ciò, Apple ha creato una nuova funzionalità chiamata " neuralMatch " per identificare il materiale relativo agli abusi sessuali su minori. Nelle fasi iniziali, questa funzionalità esaminerà solo gli iPhone degli utenti negli Stati Uniti. Questo nuovo sistema sarà lanciato ufficialmente entro la fine dell'anno e integrato in tutti i futuri sistemi operativi di iPad e iPhone per garantire la protezione dei bambini.

Questo sistema esaminerà iPhone e iPad per qualsiasi presenza di materiale relativo ad abusi sessuali su minori. Inoltre, l' app Messaggi pubblicizzerà anche un avviso ogni volta che qualcuno riceve o invia contenuti sessualmente espliciti.

Ogni volta che il dispositivo riceve tali contenuti, le immagini nel messaggio saranno sfocate con un avviso avviato, poche risorse utili e rassicurazioni che va bene se non vogliono visualizzare l'immagine.

Inoltre, il bambino verrà avvisato che i suoi genitori riceveranno un messaggio se visualizzano l'immagine, solo una precauzione aggiuntiva. Allo stesso modo, se il bambino invia immagini sessualmente esplicite, i suoi genitori riceveranno un messaggio di notifica.

I messaggi utilizzano l'apprendimento automatico sul dispositivo per esaminare gli allegati di immagini e decidere se una foto è sessualmente esplicita. Inoltre, l'uso dell'apprendimento automatico sul dispositivo garantisce che Apple non acceda a nessuno dei messaggi.

Secondo Apple, questo nuovo strumento non è altro che una " applicazione di crittografia ", progettata per sopprimere la circolazione online di CSAM (materiale pedopornografico) senza compromettere la privacy degli utenti.

Ma come funziona esattamente questo nuovo sistema?

Il sistema cercherà qualsiasi corrispondenza nota per CSAM prima che possa essere archiviata come immagine in iCloud Photos. Se viene rilevata una corrispondenza, un analista umano effettuerà una valutazione vera e propria e informerà il Centro nazionale per i bambini scomparsi e sfruttati in merito a tale individuo e l'account verrà disabilitato.

Sebbene il sistema non sia stato ancora lanciato, ha già riscontrato molti critici che hanno avanzato preoccupazioni sul fatto che questa tecnologia possa essere utilizzata per scansionare i telefoni alla ricerca di contenuti vietati o punti di vista politici. Apple si sta anche preparando a esaminare i messaggi crittografati degli utenti per rilevare contenuti sessualmente espliciti.

Matthew Green, che è il principale ricercatore di crittografia della John Hopkins University, ha affermato che questo sistema potrebbe essere facilmente utilizzato per intrappolare persone innocenti inviando loro immagini offensive per innescare una corrispondenza con vari materiali pedopornografici. Aggiunge inoltre,

I ricercatori sono stati in grado di farlo abbastanza facilmente. Cosa succede quando il governo cinese dice: ‘Ecco un elenco di file che vogliamo che tu scansioni… Apple dice di no? Spero che dicano di no, ma la loro tecnologia non dirà di no.

Il presidente di Freedom of Press, Edward Snowden, ha da dire questo sul nuovo sistema di Apple:

Sebbene questa nuova funzionalità sia certamente una buona aggiunta a tutti gli sforzi esistenti per prevenire la circolazione di CSAM (materiale pedopornografico), resta da vedere quanto maggiore avrà un impatto sulla privacy degli utenti .

In ogni caso, puoi sempre aggiungere un ulteriore livello di sicurezza online, privacy e protezione dei dati con i seguenti strumenti di sicurezza.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More