Apple bestätigt, dass die CSAM-Erkennung nur für Fotos gilt, und verteidigt seine Methode gegen andere Lösungen
Apple bietet weiterhin Klarheit über die letzte Woche angekündigte CSAM-Erkennungsfunktion (Material für sexuellen Missbrauch von Kindern). Neben einem Heute früher veröffentlicht, hat Apple jetzt auch bestätigt, dass die CSAM-Erkennung nur für Fotos gilt, die in iCloud Photos gespeichert sind, nicht für Videos.
Das Unternehmen verteidigt auch weiterhin seine Implementierung der CSAM-Erkennung als datenschutzfreundlicher und datenschutzfreundlicher als andere Unternehmen.
Apple hat heute bestätigt, dass die CSAM-Erkennung beim Start nur für Fotos gilt, die in iCloud Photos gespeichert sind, nicht für Videos. Angesichts der Verbreitung von Videos in CSAM-Inhalten räumte das Unternehmen jedoch ein, dass es in Zukunft noch mehr tun könnte und seine Pläne im Laufe der Zeit erweitern und weiterentwickeln kann.
Dies macht Sinn, wenn Sie einen Schritt zurücktreten und sich ansehen, wie . Der gesamte Abgleich erfolgt auf dem Gerät, wobei Apple eine Datenbank mit Fotos des Nationalen Zentrums für vermisste und ausgebeutete Kinder in einen unlesbaren Satz von Hashes umwandelt, der sicher auf den Geräten der Benutzer gespeichert wird. Die On-Device-Datenbank wird dann mit Fotos verglichen, und es gibt einen On-Device-Match, das Gerät erstellt dann einen kryptografischen Sicherheitsbeleg, der das Match-Ergebnis verschlüsselt.
Apple bekräftigt auch, dass kein Teil des CSAM-Erkennungsprozesses ausgeführt wird, wenn ein Benutzer iCloud Photos nicht verwendet. Das bedeutet, dass ein Benutzer, wenn er den CSAM-Erkennungsprozess ablehnen möchte, iCloud Photos deaktivieren kann.
Schließlich legt Apple noch einmal dar, warum es der Meinung ist, dass die Implementierung der CSAM-Erkennung auf dem Gerät weitaus besser ist als die von anderen Unternehmen verwendeten serverseitigen Implementierungen. Diese Implementierungen, erklärt Apple, erfordern, dass ein Unternehmen jedes einzelne Foto scannt, das von einem Benutzer auf seinem Server gespeichert wird, von denen die meisten nicht CSAM sind.
Apples Implementierung der CSAM-Erkennung erfordert nicht, dass Apple-Server jedes Foto scannen. Durch das Verschieben des Prozesses auf das Gerät ist die Methode von Apple sicherer und darauf ausgelegt, nur die Hashes der Bilder mit der NCMEC-Datenbank von Bildern bekannter CSAM zu vergleichen, im Gegensatz zum serverseitigen Scannen aller Bilder.