...
🧠 El blog está dedicado al tema de VPN y seguridad, privacidad de datos en Internet. Hablamos de tendencias actuales y noticias relacionadas con la protección.

Nueva herramienta de Apple para escanear iPhone en busca de material de abuso sexual infantil

6

No sorprende que los pedófilos y los delincuentes sexuales que intentan abusar de niños vulnerables se hayan vuelto más activos y agudos en los últimos años. La creciente proporción de abuso sexual infantil ha preocupado a casi todos los padres.

Teniendo esto en cuenta, Apple ha creado una nueva función llamada " neuralMatch " para identificar material relacionado con el abuso sexual infantil. En las etapas iniciales, esta función solo examinará los iPhones de los usuarios en los Estados Unidos. Este nuevo sistema se lanzará oficialmente. a finales de este año y se integrará en todos los futuros sistemas operativos de iPad y iPhone para garantizar la protección de los niños.

Este sistema examinará los iPhones y iPads en busca de cualquier presencia de material relacionado con el abuso sexual infantil. Además, la aplicación Mensajes también publicará una advertencia cada vez que alguien reciba o envíe contenido sexualmente explícito.

Cada vez que el dispositivo recibe dicho contenido, las imágenes en el mensaje se verán borrosas con una advertencia iniciada, pocos recursos útiles y la seguridad de que está bien si no quieren ver la imagen.

Además, se le notificará al niño que sus padres recibirán un mensaje si ven la imagen, solo una precaución adicional. Del mismo modo, si el niño envía imágenes sexualmente explícitas, sus padres recibirán un mensaje de notificación.

Los mensajes utilizan el aprendizaje automático en el dispositivo para examinar los archivos adjuntos de imágenes y decidir si una foto es sexualmente explícita. Además, el uso del aprendizaje automático en el dispositivo garantiza que Apple no tenga acceso a ninguno de los mensajes.

Según Apple, esta nueva herramienta no es más que una ” aplicación de criptografía ", diseñada para suprimir la circulación de CSAM (material de abuso sexual infantil) en línea sin afectar la privacidad del usuario.

Pero, ¿cómo funciona exactamente este nuevo sistema?

El sistema buscará cualquier coincidencia conocida para CSAM antes de que pueda almacenarse como una imagen en Fotos de iCloud. Si se detecta una coincidencia, un analista humano llevará a cabo una evaluación completa e informará al Centro Nacional para Niños Desaparecidos y Explotados con respecto a esa persona, y la cuenta se desactivará.

Aunque el sistema aún no se ha lanzado, ya ha encontrado muchos críticos que han expresado su preocupación de que esta tecnología podría usarse para escanear teléfonos en busca de contenido prohibido o puntos de vista políticos. Apple también se está preparando para examinar los mensajes encriptados de los usuarios para detectar contenido sexualmente explícito.

Matthew Green, quien es el principal investigador de criptografía de la Universidad John Hopkins, dijo que este sistema podría usarse fácilmente para atrapar a personas inocentes enviándoles imágenes ofensivas para desencadenar una coincidencia con varios materiales de abuso sexual infantil. Agrega además,

Los investigadores han podido hacer esto con bastante facilidad. ¿Qué sucede cuando el gobierno chino dice: ‘Aquí hay una lista de archivos que queremos que busques… ¿Apple dice que no? Espero que digan que no, pero su tecnología no dirá que no.

El presidente de Freedom of Press, Edward Snowden, tiene que decir esto sobre el nuevo sistema de Apple:

Si bien esta nueva característica es sin duda una buena adición a todos los esfuerzos existentes para prevenir la circulación de CSAM (material de abuso sexual infantil), queda por ver qué impacto tendrá en la privacidad de los usuarios .

En cualquier caso, siempre puede agregar una capa adicional de seguridad, privacidad y protección de datos en línea con las siguientes herramientas de seguridad.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More