Apple bestätigt, dass die CSAM-Erkennung nur für Fotos gilt, und verteidigt seine Methode gegen andere Lösungen
Apple bietet weiterhin Klarheit über die letzte Woche angekündigte CSAM-Erkennungsfunktion (Material für sexuellen Missbrauch von Kindern). Zusätzlich zu einem ausführlichen Dokument mit häufig gestellten Fragen, das heute früher veröffentlicht wurde, hat Apple jetzt auch bestätigt, dass die CSAM-Erkennung nur für Fotos gilt, die in iCloud Photos gespeichert sind, nicht für Videos. Das Unternehmen verteidigt auch weiterhin seine Implementierung […]
Weiterlesen