🧠 O blog é dedicado ao tema VPN e segurança, privacidade de dados na Internet. Falamos sobre tendências atuais e notícias relacionadas à proteção.

Apple atrasa recurso controverso de ‘proteção infantil’ após protestos sobre privacidade

14

A Apple está atrasando o lançamento de seus recursos de proteção infantil e se curvando às críticas de que o recurso supostamente ameaçaria a privacidade do usuário. O clamor foi sobre um recurso específico anunciado no mês passado que verificaria as fotos dos usuários em busca de material de abuso sexual infantil (CSAM) – um recurso programado para ser lançado até o final deste ano.

A gigante da tecnologia, em comunicado ao The Verge, disse:

“No mês passado, anunciamos planos para recursos destinados a ajudar a proteger crianças de predadores que usam ferramentas de comunicação para recrutá-las e explorá-las e limitar a disseminação de material de abuso sexual infantil".

Acrescentou ainda que, com base no feedback crítico que receberam de pesquisadores, clientes, grupos de defesa e muito mais, eles decidiram levar mais algum tempo para coletar feedback e fazer algumas melhorias nos próximos meses antes de lançar esses recursos extremamente significativos vinculados a segurança para crianças.

O comunicado de imprensa real da Apple sobre as mudanças tinha uma declaração semelhante à acima e pretendia reduzir a escalada de material de abuso sexual infantil (CSAM). O press release abordou três mudanças em seus trabalhos: A primeira foi fazer alterações na busca para que a assistente digital Siri aponte para recursos para prevenir CSAM caso um usuário tentasse buscar informações relacionadas a ela.

A segunda inclui alertar os pais se seus filhos receberem ou enviarem fotos sexualmente explícitas e imediatamente borrar essas imagens para as crianças. E a terceira mudança armazenaria imagens digitalizadas nas fotos do iCloud de um usuário para CSAM e as reportaria aos moderadores da Apple, que continuariam seu processo e encaminhariam esses relatórios ao Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC).

A empresa de tecnologia detalhou ainda mais o sistema de digitalização do iCloud Photos para garantir que ele não enfraqueça a privacidade do usuário. No entanto, isso, de fato, foi uma mudança controversa para muitos especialistas em privacidade. O sistema de varredura digitalizaria as imagens presentes nas fotos do iCloud de um usuário e compararia essas imagens com as presentes no banco de dados das imagens CSAM atribuídas de várias organizações de segurança infantil, incluindo o NCMEC.

No entanto, muitos especialistas em segurança e privacidade criticaram a Apple pelo sistema, afirmando que ela poderia ter construído um sistema de vigilância no dispositivo e violado seriamente a confiança do usuário na Apple por proteger a privacidade no dispositivo.

A Electronic Frontier Foundation declarou em um comunicado em 5 de agosto que, mesmo que o recurso seja destinado ao bem-estar, ele “quebrará promessas importantes da criptografia do próprio mensageiro e abrirá a porta para abusos mais amplos”.

Embora haja uma necessidade bastante significativa de um recurso como esse, não podemos deixar de pensar, os defensores da privacidade estão certos? O recurso realmente afetará a privacidade do usuário em dispositivos iOS?

No entanto, vamos apenas dizer que, mesmo que a gigante da tecnologia esteja prestes a prejudicar a confiança e a privacidade do usuário, não será a primeira vez. A Apple já foi flagrada rastreando dados de telemetria do usuário sem consentimento no início deste ano. É por isso que sugerimos que você adicione uma camada extra de segurança em seu dispositivo iOS usando a melhor VPN para iPhone até que seja confirmado que os recursos de proteção infantil não apresentam nenhuma ameaça à privacidade.

Este site usa cookies para melhorar sua experiência. Presumiremos que você está ok com isso, mas você pode cancelar, se desejar. AceitarConsulte Mais informação