🧠 El blog está dedicado al tema de VPN y seguridad, privacidad de datos en Internet. Hablamos de tendencias actuales y noticias relacionadas con la protección.

Apple retrasa la controvertida función de ‘protección infantil’ después de las protestas por la privacidad

10

Apple está retrasando el lanzamiento de sus funciones de protección infantil e inclinándose ante las críticas de que la función supuestamente amenazaría la privacidad del usuario. La protesta se debió a una función específica anunciada el mes pasado que escanearía las imágenes de los usuarios en busca de material de abuso sexual infantil (CSAM), una función programada para implementarse a fines de este año.

El gigante tecnológico, en un comunicado a The Verge, dijo:

"El mes pasado anunciamos planes para funciones destinadas a ayudar a proteger a los niños de los depredadores que usan herramientas de comunicación para reclutarlos y explotarlos, y limitar la difusión de material de abuso sexual infantil".

Además, agregó que, en función de los comentarios críticos que recibieron de investigadores, clientes, grupos de defensa y más, decidieron tomarse más tiempo para recopilar comentarios y realizar ciertas mejoras en los próximos meses antes de implementar estas características extremadamente importantes vinculadas a seguridad infantil.

El comunicado de prensa real de Apple sobre los cambios tenía una declaración similar a la anterior y estaba destinado a reducir la escalada de material de abuso sexual infantil (CSAM). El comunicado de prensa cubrió tres cambios en sus trabajos: el primero fue realizar cambios en la búsqueda para que el asistente digital Siri apunte a los recursos para evitar el CSAM si un usuario intenta buscar información relacionada.

El segundo incluía alertar a los padres si sus hijos recibían o enviaban fotos sexualmente explícitas e inmediatamente desenfocaban esas imágenes para los niños. Y, el tercer cambio almacenaría imágenes escaneadas en las fotos de iCloud de un usuario para CSAM y las informaría a los moderadores de Apple, quienes luego continuarían su proceso y remitirían esos informes al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC).

La compañía de tecnología detalló aún más el sistema de escaneo de iCloud Photos para garantizar que no debilite la privacidad del usuario. Sin embargo, esto, de hecho, fue un cambio controvertido para muchos expertos en privacidad. El sistema de escaneo escanearía las imágenes presentes en las fotos de iCloud de un usuario y compararía esas imágenes con las presentes en la base de datos de las imágenes CSAM asignadas de múltiples organizaciones de seguridad infantil, incluido el NCMEC.

Sin embargo, muchos expertos en seguridad y privacidad criticaron a Apple por el sistema, afirmando que podría haber construido un sistema de vigilancia en el dispositivo y violado gravemente la confianza del usuario en Apple para proteger la privacidad en el dispositivo.

La Electronic Frontier Foundation declaró en un comunicado el 5 de agosto que, incluso si la función está destinada al bienestar, "romperá las promesas clave del cifrado del mensajero y abrirá la puerta a abusos más amplios".

Si bien existe una necesidad bastante significativa de una característica como esta, no podemos evitar pensar, ¿tienen razón los defensores de la privacidad? ¿La característica realmente afectará la privacidad del usuario en los dispositivos iOS?

Sin embargo, digamos que incluso si el gigante tecnológico está a punto de dañar la confianza y la privacidad de los usuarios, no será la primera vez. Apple fue capturada anteriormente rastreando datos de telemetría de usuarios sin consentimiento a principios de este año. Es por eso que le sugerimos que agregue una capa adicional de seguridad en su dispositivo iOS utilizando la mejor VPN para iPhone hasta que se confirme que las funciones de protección infantil vienen sin ninguna amenaza a la privacidad.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. AcceptRead More