Apple verzögert umstrittene „Kinderschutz“-Funktion nach Datenschutz-Aufschrei
Apple verzögert die Einführung seiner Kinderschutzfunktionen und beugt sich der Kritik, dass die Funktion angeblich die Privatsphäre der Benutzer gefährden würde. Der Aufschrei bezog sich auf eine im vergangenen Monat angekündigte spezielle Funktion, die die Bilder der Benutzer nach Material zum sexuellen Missbrauch von Kindern (CSAM) scannen würde – eine Funktion, die bis Ende dieses Jahres eingeführt werden soll.
Der Technologieriese sagte in einer Erklärung gegenüber The Verge:
„Letzten Monat haben wir Pläne für Funktionen angekündigt, die dazu beitragen sollen, Kinder vor Raubtieren zu schützen, die Kommunikationstools verwenden, um sie zu rekrutieren und auszubeuten, und die Verbreitung von Material zum sexuellen Missbrauch von Kindern begrenzen.“
Es fügte weiter hinzu, dass sie sich aufgrund des kritischen Feedbacks, das sie von Forschern, Kunden, Interessengruppen und anderen erhalten haben, entschieden haben, sich etwas mehr Zeit zu nehmen, um Feedback zu sammeln und in den kommenden Monaten bestimmte Verbesserungen vorzunehmen, bevor sie diese äußerst wichtigen Funktionen einführen Kindersicherheit.
Apples eigentliche Pressemitteilung zu den Änderungen enthielt eine ähnliche Aussage wie oben und sollte die Eskalation von Material über sexuellen Missbrauch von Kindern (CSAM) reduzieren. Die Pressemitteilung behandelte drei Änderungen in ihren Arbeiten: Die erste bestand darin, Änderungen bei der Suche vorzunehmen, damit der digitale Assistent Siri auf Ressourcen verweist, um CSAM zu verhindern, wenn ein Benutzer versucht, nach damit verbundenen Informationen zu suchen.
Die zweite bestand darin , die Eltern zu warnen, wenn ihre Kinder sexuell explizite Fotos erhalten oder senden, und diese Bilder sofort für die Kinder unkenntlich zu machen. Und die dritte Änderung würde gescannte Bilder in den iCloud-Fotos eines Benutzers für CSAM speichern und sie den Moderatoren von Apple melden, die dann ihren Prozess fortsetzen und diese Berichte an das National Center for Missing and Exploited Children (NCMEC) weiterleiten würden.
Das Technologieunternehmen hat das Scansystem von iCloud Photos weiter detailliert, um sicherzustellen, dass es die Privatsphäre der Benutzer nicht schwächt. Dies war jedoch in der Tat eine umstrittene Änderung für viele Datenschutzexperten. Das Scansystem würde Bilder scannen, die auf den iCloud-Fotos eines Benutzers vorhanden sind, und diese Bilder mit denen vergleichen, die in der Datenbank der zugewiesenen CSAM-Bilder von mehreren Kinderschutzorganisationen, einschließlich NCMEC, vorhanden sind.
Viele Sicherheits- und Datenschutzexperten kritisierten Apple jedoch für das System und erklärten, dass es ein Überwachungssystem auf dem Gerät hätte aufbauen und das Vertrauen der Benutzer in Apple für den Schutz der Privatsphäre auf dem Gerät ernsthaft verletzen können.
Die Electronic Frontier Foundation erklärte in einer Erklärung vom 5. August, dass selbst wenn das Feature auf das Wohlergehen abzielt, es „die wichtigsten Versprechungen der Verschlüsselung des Messengers selbst brechen und breiteren Missbräuchen Tür und Tor öffnen wird“.
Obwohl es einen erheblichen Bedarf für eine Funktion wie diese gibt, kommen wir nicht umhin zu denken, haben die Befürworter des Datenschutzes recht? Wird die Funktion die Privatsphäre der Benutzer auf iOS-Geräten wirklich beeinträchtigen?
Sagen wir jedoch einfach, dass der Technologieriese, selbst wenn er dabei ist, das Vertrauen und die Privatsphäre der Benutzer zu verletzen, dies nicht zum ersten Mal tun wird. Apple wurde bereits Anfang des Jahres beim Verfolgen von Telemetriedaten von Benutzern ohne Zustimmung erwischt. Aus diesem Grund empfehlen wir Ihnen, Ihrem iOS-Gerät eine zusätzliche Sicherheitsebene hinzuzufügen, indem Sie das beste VPN für das iPhone verwenden, bis bestätigt ist, dass die Kinderschutzfunktionen überhaupt keine Datenschutzbedrohungen beinhalten.