...
🧠 Blogi on pühendatud VPN-i ja turvalisuse, andmete privaatsuse teemale Internetis. Räägime praegustest kaitsega seotud trendidest ja uudistest.

Apple’i uus tööriist iPhone’i skannimiseks laste seksuaalse kuritarvitamise materjali suhtes

11

Pole üllatav, et haavatavaid lapsi kuritarvitada üritavad pedofiilid ja seksuaalkurjategijad on viimastel aastatel muutunud aktiivsemaks ja teravamaks. Laste seksuaalse väärkohtlemise osakaalu suurenemine on muutnud murelikuks peaaegu iga vanema.

Seda silmas pidades on Apple loonud uue funktsiooni nimega " neuralMatch ", et tuvastada laste seksuaalse kuritarvitamisega seotud materjale. Algstaadiumis uurib see funktsioon ainult Ameerika Ühendriikide kasutajate iPhone'e. See uus süsteem võetakse ametlikult kasutusele. hiljem sel aastal ja integreeritud kõigisse tulevastesse iPadi ja iPhone'ide operatsioonisüsteemidesse, et tagada lastekaitse.

See süsteem kontrollib iPhone'i ja iPadi laste seksuaalse kuritarvitamisega seotud materjali olemasolu suhtes. Lisaks reklaamib rakendus Sõnumid hoiatust iga kord, kui keegi saab või saadab seksuaalse sisuga sisu.

Kui seade sellise sisu vastu võtab, hägustuvad sõnumis olevad pildid koos hoiatusega, väheste kasulike ressurssidega ja kinnitusega, et see on hea, kui nad pilti ei soovi vaadata.

Lisaks teavitatakse last sellest, et tema vanemad saavad pildi vaatamise korral sõnumi, mis on vaid täiendav ettevaatusabinõu. Samamoodi, kui laps saadab seksuaalse sisuga pilte, saavad tema vanemad teavitussõnumi.

Sõnumid kasutavad pildimanuste uurimiseks seadmes masinõpet ja otsustavad, kas foto on seksuaalselt vulgaarne. Lisaks tagab seadmesisese masinõppe kasutamine, et Apple ei pääse ligi ühelegi sõnumile.

Apple'i sõnul pole see uus tööriist midagi muud kui " krüptograafiarakendus ", mis on loodud CSAM-i (laste seksuaalset kuritarvitamist käsitleva materjali) leviku pärssimiseks võrgus, ilma et see mõjutaks kasutajate privaatsust.

Aga kuidas see uus süsteem täpselt töötab?

Süsteem otsib CSAM-ile teadaolevaid vasteid, enne kui seda saab iCloud Photos pildina salvestada. Kui tuvastatakse vaste, viib inimanalüütik läbi põhjaliku hindamise ja teavitab sellest isikust riiklikku kadunud ja ärakasutatud laste keskust ning konto keelatakse.

Kuigi süsteemi pole veel käivitatud, on see juba leidnud palju kriitikuid, kes on väljendanud muret, et seda tehnoloogiat võidakse kasutada telefonide skannimiseks keelatud sisu või poliitiliste seisukohtade leidmiseks. Apple valmistub uurima ka kasutajate krüpteeritud sõnumeid, et tuvastada seksuaalset sisu.

Matthew Green, kes on John Hopkinsi ülikooli kõrgeim krüptograafiateadlane, ütles, et seda süsteemi saab hõlpsasti kasutada süütute inimeste lõksu püüdmiseks, saates neile solvavaid pilte, et käivitada vaste erinevate laste seksuaalset kuritarvitamist käsitleva materjaliga. Ta lisab veel,

Teadlased on suutnud seda üsna lihtsalt teha. Mis juhtub, kui Hiina valitsus ütleb: "Siin on failide loend, mida me tahame, et te otsiksite… Kas Apple ütleb ei?" Loodan, et nad ütlevad ei, kuid nende tehnoloogia ei ütle ei.

Pressivabaduse president Edward Snowden peab Apple'i uue süsteemi kohta ütlema järgmist:

Kuigi see uus funktsioon on kindlasti hea täiendus kõikidele olemasolevatele jõupingutustele CSAM-i (laste seksuaalset kuritarvitamist käsitleva materjali) leviku tõkestamiseks, tuleb alles näha, kui suurem mõju sellel kasutajate privaatsusele on.

Igal juhul saate järgmiste turvatööriistade abil alati lisada täiendava võrguturvalisuse, privaatsuse ja andmekaitse kihi.

See veebisait kasutab teie kasutuskogemuse parandamiseks küpsiseid. Eeldame, et olete sellega rahul, kuid saate soovi korral loobuda. Nõustu Loe rohkem