Apple bestätigt, dass es Pläne zur Einführung des CSAM-Erkennungssystems gestoppt hat
Bereits im Jahr 2021 kündigte Apple eine Reihe neuer Sicherheitsfunktionen für Kinder an, darunter die Erkennung von Child Sexual Abuse Material (CSAM) für iCloud Photos. Der Schritt wurde jedoch aufgrund von Datenschutzbedenken vielfach kritisiert. Nachdem es auf unbestimmte Zeit auf Eis gelegt wurde, hat Apple nun bestätigt, dass es seine Pläne zur Einführung des CSAM-Erkennungssystems eingestellt hat. […]
Weiterlesen