🧠 O blog é dedicado ao tema VPN e segurança, privacidade de dados na Internet. Falamos sobre tendências atuais e notícias relacionadas à proteção.

Nova ferramenta da Apple para escanear iPhone em busca de material de abuso sexual infantil

8

Não é surpresa que os pedófilos e criminosos sexuais que tentam abusar de crianças vulneráveis ​​tenham se tornado mais ativos e perspicazes nos últimos anos. A crescente proporção de abuso sexual infantil deixou quase todos os pais preocupados.

Pensando nisso, a Apple criou um novo recurso chamado ” neuralMatch " para identificar material relacionado ao abuso sexual infantil. ainda este ano e integrado em todos os futuros sistemas operacionais de iPad e iPhones para garantir a proteção infantil.

Este sistema examinará iPhones e iPads em busca de qualquer presença de material relacionado a abuso sexual infantil. Além disso, o aplicativo Mensagens também anunciará um aviso sempre que alguém receber ou enviar conteúdo sexualmente explícito.

Sempre que o dispositivo receber esse conteúdo, as imagens na mensagem serão borradas com um aviso iniciado, poucos recursos úteis e garantia de que não há problema se eles não quiserem visualizar a imagem.

Além disso, a criança será notificada de que seus pais receberão uma mensagem se visualizarem a imagem, apenas uma precaução adicional. Da mesma forma, se a criança enviar imagens sexualmente explícitas, seus pais receberão uma mensagem de notificação.

As mensagens utilizam o aprendizado de máquina no dispositivo para examinar anexos de imagens e decidir se uma foto é sexualmente explícita. Além disso, o uso de aprendizado de máquina no dispositivo garante que a Apple não tenha acesso a nenhuma das mensagens.

Segundo a Apple, essa nova ferramenta nada mais é do que uma ” aplicação de criptografia “, projetada para suprimir a circulação de CSAM (material de abuso sexual infantil) online sem afetar a privacidade do usuário.

Mas como exatamente esse novo sistema funciona?

O sistema procurará quaisquer correspondências conhecidas para CSAM antes que ele possa ser armazenado como uma imagem no iCloud Photos. Se uma correspondência for detectada, um analista humano realizará uma avaliação completa e informará o Centro Nacional para Crianças Desaparecidas e Exploradas sobre esse indivíduo, e a conta será desativada.

Embora o sistema ainda não tenha sido lançado, ele já encontrou muitos críticos que propuseram preocupações de que essa tecnologia possa ser usada para escanear telefones em busca de conteúdo proibido ou pontos de vista políticos. A Apple também está se preparando para examinar as mensagens criptografadas dos usuários para detectar conteúdo sexualmente explícito.

Matthew Green, que é o principal pesquisador de criptografia da Universidade John Hopkins, disse que esse sistema pode ser facilmente usado para prender pessoas inocentes enviando-lhes imagens ofensivas para desencadear uma correspondência com vários materiais de abuso sexual infantil. Ele ainda acrescenta,

Os pesquisadores conseguiram fazer isso com bastante facilidade. O que acontece quando o governo chinês diz: ‘Aqui está uma lista de arquivos que queremos que você verifique… A Apple diz não? Espero que digam não, mas a tecnologia deles não vai dizer não.

Presidente da Liberdade de Imprensa, Edward Snowden, tem a dizer o seguinte sobre o novo sistema da Apple:

Embora esse novo recurso seja certamente uma boa adição a todos os esforços existentes para impedir a circulação de CSAM (material de abuso sexual infantil), ainda não se sabe qual será o impacto maior na privacidade dos usuários.

Seja qual for o caso, você sempre pode adicionar uma camada extra de segurança online, privacidade e proteção de dados com as seguintes ferramentas de segurança.

Este site usa cookies para melhorar sua experiência. Presumiremos que você está ok com isso, mas você pode cancelar, se desejar. AceitarConsulte Mais informação