...
🧠 Bloggen är dedikerad till ämnet VPN och säkerhet, datasekretess på Internet. Vi pratar om aktuella trender och nyheter relaterade till skydd.

Apples nya verktyg för att skanna iPhone efter material om sexuella övergrepp mot barn

8

Det är ingen överraskning att de pedofiler och sexförbrytare som försöker misshandla utsatta barn har blivit mer aktiva och skarpa de senaste åren. Den ökande andelen sexuella övergrepp mot barn har gjort nästan alla föräldrar oroliga.

Med tanke på detta har Apple skapat en ny funktion som heter " neuralMatch " för att identifiera material relaterat till sexuella övergrepp mot barn. I de inledande stadierna kommer denna funktion endast att undersöka iPhones från användare i USA. Detta nya system kommer att lanseras officiellt senare i år och integrerat i alla framtida operativsystem för iPad och iPhones för att säkerställa barnskydd.

Detta system kommer att undersöka iPhones och iPads för eventuell förekomst av material relaterat till sexuella övergrepp mot barn. Dessutom kommer Messages-appen också att annonsera en varning när någon tar emot eller skickar sexuellt explicit innehåll.

När enheten tar emot sådant innehåll kommer bilderna i meddelandet att suddas ut med en varning initierad, få användbara resurser och försäkran om att det är bra om de inte vill se bilden.

Dessutom kommer barnet att meddelas att deras föräldrar kommer att få ett meddelande om de tittar på bilden, bara en extra försiktighetsåtgärd. På samma sätt, om barnet skickar sexuellt explicita bilder, kommer deras föräldrar att få ett meddelande.

Meddelanden använder maskininlärning på enheten för att undersöka bildbilagor och avgöra om ett foto är sexuellt explicit. Dessutom säkerställer användningen av maskininlärning på enheten att Apple inte får tillgång till något av meddelandena.

Enligt Apple är detta nya verktyg inget annat än en " applikation av kryptografi ", utformad för att undertrycka cirkulationen av CSAM (material för sexuella övergrepp mot barn) på nätet utan att påverka användarnas integritet.

Men exakt hur fungerar det här nya systemet?

Systemet kommer att söka efter alla kända matchningar för CSAM innan det kan lagras som en bild i iCloud Photos. Om en matchning upptäcks kommer en mänsklig analytiker att utföra en ut- och utvärdering och informera National Center for Missing and Exploited Children om den personen, och kontot kommer att inaktiveras.

Även om systemet inte har lanserats ännu, har det redan hittat många kritiker som har föreslagit farhågor om att denna teknik kan användas för att skanna telefoner efter förbjudet innehåll eller politiska synpunkter. Apple förbereder sig också för att undersöka användarnas krypterade meddelanden för att upptäcka sexuellt explicit innehåll.

Matthew Green, som är John Hopkins Universitys främsta kryptografiforskare, sa att detta system lätt kan användas för att fälla oskyldiga människor genom att skicka dem stötande bilder för att utlösa en matchning med olika material för sexuella övergrepp mot barn. Han tillägger vidare,

Forskare har kunnat göra detta ganska enkelt. Vad händer när den kinesiska regeringen säger: ‘Här är en lista över filer som vi vill att du ska skanna efter… Säger Apple nej? Jag hoppas att de säger nej, men deras teknik säger inte nej.

Pressfrihetens president, Edward Snowden, måste säga detta om Apples nya system:

Även om den här nya funktionen verkligen är ett bra komplement till alla befintliga ansträngningar för att förhindra cirkulationen av CSAM (material för sexuellt övergrepp mot barn), återstår att se hur större inverkan den kommer att ha på användarnas integritet .

Hur det än är så kan du alltid lägga till ett extra lager av onlinesäkerhet, integritet och dataskydd med följande säkerhetsverktyg.

Denna webbplats använder cookies för att förbättra din upplevelse. Vi antar att du är ok med detta, men du kan välja bort det om du vill. Jag accepterar Fler detaljer