A Apple está atrasando o lançamento de seus recursos de proteção infantil e se curvando às críticas de que o recurso supostamente ameaçaria a privacidade do usuário. O clamor foi sobre um recurso específico anunciado no mês passado que verificaria as fotos dos usuários em busca de material de abuso sexual infantil (CSAM) – um recurso programado para ser lançado até o final deste ano.
A gigante da tecnologia, em comunicado ao The Verge, disse:
“No mês passado, anunciamos planos para recursos destinados a ajudar a proteger crianças de predadores que usam ferramentas de comunicação para recrutá-las e explorá-las e limitar a disseminação de material de abuso sexual infantil".
Acrescentou ainda que, com base no feedback crítico que receberam de pesquisadores, clientes, grupos de defesa e muito mais, eles decidiram levar mais algum tempo para coletar feedback e fazer algumas melhorias nos próximos meses antes de lançar esses recursos extremamente significativos vinculados a segurança para crianças.
O comunicado de imprensa real da Apple sobre as mudanças tinha uma declaração semelhante à acima e pretendia reduzir a escalada de material de abuso sexual infantil (CSAM). O press release abordou três mudanças em seus trabalhos: A primeira foi fazer alterações na busca para que a assistente digital Siri aponte para recursos para prevenir CSAM caso um usuário tentasse buscar informações relacionadas a ela.
A segunda inclui alertar os pais se seus filhos receberem ou enviarem fotos sexualmente explícitas e imediatamente borrar essas imagens para as crianças. E a terceira mudança armazenaria imagens digitalizadas nas fotos do iCloud de um usuário para CSAM e as reportaria aos moderadores da Apple, que continuariam seu processo e encaminhariam esses relatórios ao Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC).
A empresa de tecnologia detalhou ainda mais o sistema de digitalização do iCloud Photos para garantir que ele não enfraqueça a privacidade do usuário. No entanto, isso, de fato, foi uma mudança controversa para muitos especialistas em privacidade. O sistema de varredura digitalizaria as imagens presentes nas fotos do iCloud de um usuário e compararia essas imagens com as presentes no banco de dados das imagens CSAM atribuídas de várias organizações de segurança infantil, incluindo o NCMEC.
No entanto, muitos especialistas em segurança e privacidade criticaram a Apple pelo sistema, afirmando que ela poderia ter construído um sistema de vigilância no dispositivo e violado seriamente a confiança do usuário na Apple por proteger a privacidade no dispositivo.
A Electronic Frontier Foundation declarou em um comunicado em 5 de agosto que, mesmo que o recurso seja destinado ao bem-estar, ele “quebrará promessas importantes da criptografia do próprio mensageiro e abrirá a porta para abusos mais amplos”.
Embora haja uma necessidade bastante significativa de um recurso como esse, não podemos deixar de pensar, os defensores da privacidade estão certos? O recurso realmente afetará a privacidade do usuário em dispositivos iOS?
No entanto, vamos apenas dizer que, mesmo que a gigante da tecnologia esteja prestes a prejudicar a confiança e a privacidade do usuário, não será a primeira vez. A Apple já foi flagrada rastreando dados de telemetria do usuário sem consentimento no início deste ano. É por isso que sugerimos que você adicione uma camada extra de segurança em seu dispositivo iOS usando a melhor VPN para iPhone até que seja confirmado que os recursos de proteção infantil não apresentam nenhuma ameaça à privacidade.