...
🧠 Blog poświęcony jest tematowi VPN i bezpieczeństwa, prywatności danych w Internecie. Rozmawiamy o aktualnych trendach i nowościach związanych z ochroną.

Nowe narzędzie Apple do skanowania iPhone’a w poszukiwaniu materiałów związanych z wykorzystywaniem seksualnym dzieci

11

Nie jest niespodzianką, że pedofile i przestępcy seksualni, którzy próbują wykorzystywać bezbronne dzieci, stali się w ostatnich latach bardziej aktywni i ostrzejsi. Rosnący odsetek wykorzystywania seksualnego dzieci sprawia, że ​​prawie wszyscy rodzice są zaniepokojeni.

Mając to na uwadze, firma Apple stworzyła nową funkcję o nazwie „ neuralMatch ", która służy do identyfikowania materiałów związanych z wykorzystywaniem seksualnym dzieci. Na początkowych etapach funkcja ta będzie badać wyłącznie iPhone'y użytkowników w Stanach Zjednoczonych. Ten nowy system zostanie oficjalnie uruchomiony jeszcze w tym roku i zintegrowane ze wszystkimi przyszłymi systemami operacyjnymi iPada i iPhone'a, aby zapewnić ochronę dzieci.

Ten system zbada iPhone'y i iPady pod kątem obecności materiałów związanych z wykorzystywaniem seksualnym dzieci. Ponadto aplikacja Wiadomości wyświetla ostrzeżenie za każdym razem, gdy ktoś otrzyma lub wyśle ​​treści o charakterze jednoznacznie seksualnym.

Za każdym razem, gdy urządzenie otrzyma takie treści, obrazy w wiadomości zostaną zamazane z zainicjowanym ostrzeżeniem, kilkoma pomocnymi zasobami i zapewnieniem, że nie ma nic złego, jeśli nie chcą oglądać obrazu.

Ponadto dziecko zostanie powiadomione, że jego rodzice otrzymają wiadomość, jeśli obejrzą zdjęcie, tylko jako dodatkowy środek ostrożności. Podobnie, jeśli dziecko wyśle ​​zdjęcia o charakterze jednoznacznie seksualnym, jego rodzice otrzymają powiadomienie.

Wiadomości wykorzystują uczenie maszynowe na urządzeniu do sprawdzania załączników graficznych i określania, czy zdjęcie ma charakter erotyczny. Ponadto wykorzystanie uczenia maszynowego na urządzeniu gwarantuje, że Apple nie uzyska dostępu do żadnej z wiadomości.

Według Apple to nowe narzędzie jest niczym innym jak „ zastosowaniem kryptografii ” zaprojektowanym do tłumienia obiegu CSAM (materiałów przedstawiających wykorzystywanie seksualne dzieci) w Internecie bez wpływu na prywatność użytkowników.

Ale jak dokładnie działa ten nowy system?

System wyszuka wszelkie znane dopasowania CSAM, zanim będzie można je zapisać jako obraz w Zdjęciach iCloud. Jeśli zostanie wykryte dopasowanie, analitycy dokonają całkowitej oceny i poinformują Narodowe Centrum Dzieci Zaginionych i Wykorzystywanych o tej osobie, a konto zostanie wyłączone.

Chociaż system nie został jeszcze uruchomiony, znalazł już wielu krytyków, którzy zgłaszali obawy, że ta technologia może być wykorzystywana do skanowania telefonów w poszukiwaniu zabronionych treści lub poglądów politycznych. Apple przygotowuje się również do zbadania zaszyfrowanych wiadomości użytkowników w celu wykrycia treści o charakterze jednoznacznie seksualnym.

Matthew Green, który jest czołowym badaczem kryptografii na Uniwersytecie Johna Hopkinsa, powiedział, że ten system można łatwo wykorzystać do łapania niewinnych ludzi poprzez wysyłanie im obraźliwych obrazów, aby wywołać dopasowanie do różnych materiałów związanych z wykorzystywaniem seksualnym dzieci. Dalej dodaje:

Naukowcom udało się to zrobić całkiem łatwo. Co się dzieje, gdy chiński rząd mówi: „Oto lista plików, które chcemy, abyś przeskanował… Czy Apple odmawia? Mam nadzieję, że powiedzą nie, ale ich technologia nie odmówi.

Prezes Freedom of Press, Edward Snowden, powiedział o nowym systemie Apple:

Chociaż ta nowa funkcja jest z pewnością dobrym dodatkiem do wszystkich dotychczasowych wysiłków na rzecz zapobiegania rozpowszechnianiu CSAM (materiałów przedstawiających wykorzystywanie seksualne dzieci), to jednak, jak większy wpływ będzie to miało na prywatność użytkowników, okaże się.

Niezależnie od przypadku, zawsze możesz dodać dodatkową warstwę bezpieczeństwa online, prywatności i ochrony danych za pomocą następujących narzędzi bezpieczeństwa.

Ta strona korzysta z plików cookie, aby poprawić Twoje wrażenia. Zakładamy, że nie masz nic przeciwko, ale możesz zrezygnować, jeśli chcesz. Akceptuję Więcej szczegółów