...
🧠 Blog poświęcony jest tematowi VPN i bezpieczeństwa, prywatności danych w Internecie. Rozmawiamy o aktualnych trendach i nowościach związanych z ochroną.

Apple opóźnia kontrowersyjną funkcję „ochrony dzieci” po oburzeniu na temat prywatności

4

Apple opóźnia uruchomienie swoich funkcji ochrony dzieci i kłania się krytyce, że ta funkcja rzekomo zagraża prywatności użytkowników. Oburzenie dotyczyło jednej konkretnej funkcji ogłoszonej w zeszłym miesiącu, która skanuje zdjęcia użytkowników pod kątem materiałów związanych z wykorzystywaniem seksualnym dzieci (CSAM) – funkcja, która ma zostać wprowadzona do końca tego roku.

Gigant technologiczny w oświadczeniu dla The Verge powiedział:

„W zeszłym miesiącu ogłosiliśmy plany dotyczące funkcji, które mają pomóc chronić dzieci przed drapieżnikami, które wykorzystują narzędzia komunikacyjne do ich rekrutacji i wykorzystywania, oraz ograniczać rozpowszechnianie materiałów związanych z wykorzystywaniem seksualnym dzieci".

Ponadto dodał, że w oparciu o krytyczne informacje zwrotne, które otrzymali od badaczy, klientów, grup rzeczników i nie tylko, postanowili poświęcić trochę więcej czasu na zebranie opinii i wprowadzenie pewnych ulepszeń w nadchodzących miesiącach przed wprowadzeniem tych niezwykle istotnych funkcji związanych z bezpieczeństwo dzieci.

Rzeczywista informacja prasowa Apple o zmianach zawierała podobne oświadczenie jak powyżej i miała na celu ograniczenie eskalacji materiałów dotyczących wykorzystywania seksualnego dzieci (CSAM). Komunikat prasowy obejmował trzy zmiany w jego pracach: Pierwsza polegała na wprowadzeniu zmian w wyszukiwarce, aby asystentka cyfrowa Siri wskazywała zasoby, aby zapobiec CSAM, jeśli użytkownik spróbuje wyszukać informacje z nim związane.

Drugi obejmował ostrzeganie rodziców, jeśli ich dzieci otrzymują lub wysyłają zdjęcia o charakterze erotycznym, i natychmiast rozmywają je dla dzieci. Trzecia zmiana polegałaby na przechowywaniu zeskanowanych obrazów w Zdjęciach iCloud użytkownika dla CSAM i zgłaszaniu ich moderatorom Apple, którzy następnie kontynuowaliby proces i odsyłali te zgłoszenia do National Center for Missing and Exploited Children (NCMEC).

Firma technologiczna szczegółowo omówiła system skanowania zdjęć iCloud, aby upewnić się, że nie osłabia on prywatności użytkowników. Jednak rzeczywiście była to kontrowersyjna zmiana dla wielu ekspertów ds. prywatności. System skanujący skanuje obrazy obecne na zdjęciach iCloud użytkownika i porównuje te obrazy z obrazami znajdującymi się w bazie danych przypisanych obrazów CSAM z wielu organizacji zajmujących się bezpieczeństwem dzieci, w tym NCMEC.

Jednak wielu ekspertów ds. bezpieczeństwa i prywatności skrytykowało firmę Apple za system, twierdząc, że mógł zbudować system nadzoru na urządzeniu i poważnie naruszyć zaufanie użytkowników do firmy Apple w zakresie ochrony prywatności na urządzeniu.

Electronic Frontier Foundation oświadczyła w oświadczeniu z 5 sierpnia, że ​​nawet jeśli funkcja ma na celu zapewnienie dobrego samopoczucia, „złamie kluczowe obietnice samego szyfrowania komunikatora i otworzy drzwi do szerszych nadużyć”.

Chociaż istnieje dość duże zapotrzebowanie na taką funkcję, nie możemy przestać myśleć, czy zwolennicy prywatności mają rację? Czy ta funkcja naprawdę wpłynie na prywatność użytkownika na urządzeniach z systemem iOS?

Powiedzmy jednak, że nawet jeśli gigant technologiczny zamierza zaszkodzić zaufaniu i prywatności użytkowników, nie będzie to po raz pierwszy. Apple został wcześniej przyłapany na śledzeniu danych telemetrycznych użytkownika bez zgody na początku tego roku. Dlatego sugerujemy dodanie dodatkowej warstwy bezpieczeństwa na urządzeniu z systemem iOS za pomocą najlepszej sieci VPN dla iPhone'a, dopóki nie zostanie potwierdzone, że funkcje ochrony dzieci nie są w żaden sposób zagrażające prywatności.

Ta strona korzysta z plików cookie, aby poprawić Twoje wrażenia. Zakładamy, że nie masz nic przeciwko, ale możesz zrezygnować, jeśli chcesz. Akceptuję Więcej szczegółów