Apples neues Tool zum Scannen des iPhones nach Material über sexuellen Missbrauch von Kindern
Es ist keine Überraschung, dass die Pädophilen und Sexualstraftäter, die versuchen, gefährdete Kinder zu missbrauchen, in den letzten Jahren aktiver und scharfsinniger geworden sind. Der zunehmende Anteil des sexuellen Missbrauchs von Kindern hat fast alle Eltern beunruhigt.
Vor diesem Hintergrund hat Apple eine neue Funktion namens „ neuralMatch “ entwickelt, um Material im Zusammenhang mit sexuellem Missbrauch von Kindern zu identifizieren. In der Anfangsphase wird diese Funktion nur die iPhones von Benutzern in den Vereinigten Staaten untersuchen. Dieses neue System wird offiziell eingeführt noch in diesem Jahr und in alle zukünftigen Betriebssysteme von iPad und iPhone integriert, um den Kinderschutz zu gewährleisten.
Dieses System untersucht iPhones und iPads auf das Vorhandensein von Material im Zusammenhang mit sexuellem Missbrauch von Kindern. Darüber hinaus gibt die Nachrichten-App auch eine Warnung aus, wenn jemand sexuell explizite Inhalte empfängt oder sendet .
Immer wenn das Gerät solche Inhalte empfängt, werden die Bilder in der Nachricht mit einer initiierten Warnung verschwommen, wenigen hilfreichen Ressourcen und der Zusicherung, dass es in Ordnung ist, wenn sie das Bild nicht anzeigen möchten.
Darüber hinaus wird das Kind benachrichtigt, dass seine Eltern eine Nachricht erhalten, wenn sie das Bild ansehen, nur eine zusätzliche Vorsichtsmaßnahme. Wenn das Kind sexuell explizite Bilder sendet, erhalten seine Eltern ebenfalls eine Benachrichtigung.
Nachrichten nutzen maschinelles Lernen auf dem Gerät, um Bildanhänge zu untersuchen und zu entscheiden, ob ein Foto sexuell explizit ist. Darüber hinaus stellt die Verwendung von maschinellem Lernen auf dem Gerät sicher, dass Apple keinen Zugriff auf die Nachrichten erhält.
Laut Apple ist dieses neue Tool nichts weiter als eine „ Anwendung der Kryptografie „, die darauf abzielt, die Verbreitung von CSAM (Material zum sexuellen Missbrauch von Kindern) online zu unterdrücken, ohne die Privatsphäre der Benutzer zu beeinträchtigen .
Aber wie genau funktioniert dieses neue System?
Das System sucht nach bekannten Übereinstimmungen für CSAM, bevor es als Bild in iCloud-Fotos gespeichert werden kann. Wenn eine Übereinstimmung festgestellt wird, führt ein menschlicher Analyst eine gründliche Bewertung durch und informiert das Nationale Zentrum für vermisste und ausgebeutete Kinder über diese Person, und das Konto wird deaktiviert.
Obwohl das System noch nicht eingeführt wurde, hat es bereits viele Kritiker gefunden, die Bedenken geäußert haben, dass diese Technologie zum Scannen von Telefonen nach verbotenen Inhalten oder politischen Standpunkten verwendet werden könnte. Apple bereitet sich auch darauf vor, die verschlüsselten Nachrichten der Benutzer zu untersuchen, um sexuell explizite Inhalte zu erkennen.
Matthew Green, der führende Kryptografie-Forscher der John Hopkins University, sagte, dass dieses System leicht verwendet werden könnte, um unschuldige Menschen zu fangen, indem man ihnen anstößige Bilder sendet, um eine Übereinstimmung mit verschiedenen Materialien zum sexuellen Missbrauch von Kindern auszulösen. Er fügt weiter hinzu,
Forschern ist dies ziemlich einfach gelungen. Was passiert, wenn die chinesische Regierung sagt: „Hier ist eine Liste von Dateien, die Sie scannen sollen … Sagt Apple nein? Ich hoffe, sie sagen nein, aber ihre Technologie wird nicht nein sagen.
Der Präsident der Pressefreiheit, Edward Snowden, muss Folgendes über Apples neues System sagen:
Während diese neue Funktion sicherlich eine gute Ergänzung zu all den bestehenden Bemühungen zur Verhinderung der Verbreitung von CSAM (Material zum sexuellen Missbrauch von Kindern) ist, bleibt abzuwarten, wie größer die Auswirkungen auf die Privatsphäre der Benutzer sein werden.
In jedem Fall können Sie mit den folgenden Sicherheitstools jederzeit eine zusätzliche Ebene für Online-Sicherheit, Privatsphäre und Datenschutz hinzufügen.