...
🧠 Blogi on omistettu VPN: n ja turvallisuuden, internetin tietosuojan aiheelle. Puhumme ajankohtaisista trendeistä ja uutisista, jotka liittyvät suojeluun.

Applen uusi työkalu iPhonen tarkistamiseen lasten seksuaalisen hyväksikäytön materiaalin varalta

4

Ei ole yllätys, että pedofiilit ja seksuaalirikolliset, jotka yrittävät pahoinpidellä haavoittuvia lapsia, ovat muuttuneet aktiivisemmiksi ja terävämmiksi viime vuosina. Lasten seksuaalisen hyväksikäytön lisääntyminen on tehnyt lähes jokaisen vanhemman huolestuneeksi.

Tätä silmällä pitäen Apple on luonut uuden ominaisuuden nimeltä " neuralMatch " tunnistamaan lasten seksuaaliseen hyväksikäyttöön liittyvää materiaalia. Alkuvaiheessa tämä ominaisuus tutkii vain yhdysvaltalaisten käyttäjien iPhone-puhelimia. Tämä uusi järjestelmä lanseerataan virallisesti myöhemmin tänä vuonna ja integroitu kaikkiin tuleviin iPadin ja iPhonen käyttöjärjestelmiin lastensuojelun varmistamiseksi.

Tämä järjestelmä tutkii iPhonen ja iPadin lasten seksuaaliseen hyväksikäyttöön liittyvän materiaalin varalta. Lisäksi Viestit-sovellus mainostaa myös varoitusta aina, kun joku vastaanottaa tai lähettää seksuaalista sisältöä.

Aina kun laite vastaanottaa tällaista sisältöä, viestissä olevat kuvat sumentuvat, ja niistä tulee varoitus, vähän hyödyllisiä resursseja ja varmistus, että on hyvä, jos he eivät halua nähdä kuvaa.

Lisäksi lapsi saa ilmoituksen, että hänen vanhempansa saavat viestin, jos he katsovat kuvaa, vain lisävarotoimenpiteenä. Vastaavasti, jos lapsi lähettää avoimen seksuaalisia kuvia, hänen vanhempansa saavat ilmoitusviestin.

Viestit hyödyntävät laitteen koneoppimista kuvien liitteiden tutkimiseen ja sen päättämiseen, onko valokuva seksuaalisesti avoin. Lisäksi laitteen koneoppimisen käyttö varmistaa, että Apple ei pääse käsiksi mihinkään viesteistä.

Applen mukaan tämä uusi työkalu ei ole muuta kuin " salauksen sovellus ", joka on suunniteltu estämään CSAM:n (lasten seksuaalista hyväksikäyttöä käsittelevän materiaalin) leviäminen verkossa vaikuttamatta käyttäjien yksityisyyteen.

Mutta miten tämä uusi järjestelmä tarkalleen ottaen toimii?

Järjestelmä etsii tiedossa olevia CSAM-osumia, ennen kuin se voidaan tallentaa kuvana iCloud Photosissa. Jos vastaavuus havaitaan, ihmisanalyytikko suorittaa perusteellisen arvioinnin ja ilmoittaa kyseisestä henkilöstä National Center for Missing and Exploited Children -keskukselle, ja tili poistetaan käytöstä.

Vaikka järjestelmää ei ole vielä julkaistu, se on jo löytänyt monia kriitikkoja, jotka ovat ilmaisseet huolensa siitä, että tätä tekniikkaa saatetaan käyttää puhelimien kielletyn sisällön tai poliittisten näkemysten etsimiseen. Apple valmistautuu myös tutkimaan käyttäjien salattuja viestejä seksuaalisen sisällön havaitsemiseksi.

Matthew Green, joka on John Hopkinsin yliopiston johtava salaustutkija, sanoi, että tätä järjestelmää voitaisiin helposti käyttää viattomien ihmisten vangitsemiseen lähettämällä heille loukkaavia kuvia, jotka laukaisevat yhteensopivuuden erilaisten lasten seksuaalista hyväksikäyttöä koskevien materiaalien kanssa. Hän lisää vielä,

Tutkijat ovat pystyneet tekemään tämän melko helposti. Mitä tapahtuu, kun Kiinan hallitus sanoo: "Tässä on luettelo tiedostoista, jotka haluamme sinun etsivän… Sanoiko Apple ei?" Toivon, että he sanovat ei, mutta heidän tekniikkansa ei sano ei.

Lehdistönvapauden presidentin Edward Snowdenin on sanottava tämä Applen uudesta järjestelmästä:

Vaikka tämä uusi ominaisuus on varmasti hyvä lisä kaikkiin olemassa oleviin ponnisteluihin lasten seksuaalisen hyväksikäytön materiaalin leviämisen estämiseksi, jää nähtäväksi, kuinka suurempi vaikutus sillä on käyttäjien yksityisyyteen.

Joka tapauksessa voit aina lisätä ylimääräisen verkkoturvallisuuden, yksityisyyden ja tietosuojan tason seuraavilla suojaustyökaluilla.

Tämä verkkosivusto käyttää evästeitä parantaakseen käyttökokemustasi. Oletamme, että olet kunnossa, mutta voit halutessasi kieltäytyä. Hyväksyä Lisätietoja