Apple bestätigt, dass es Pläne zur Einführung des CSAM-Erkennungssystems gestoppt hat

Apple bestätigt, dass es Pläne zur Einführung des CSAM-Erkennungssystems gestoppt hat

Bereits im Jahr 2021 kündigte Apple eine Reihe neuer Sicherheitsfunktionen für Kinder an, darunter die Erkennung von Child Sexual Abuse Material (CSAM) für iCloud Photos. Der Schritt wurde jedoch aufgrund von Datenschutzbedenken vielfach kritisiert. Nachdem es auf unbestimmte Zeit auf Eis gelegt wurde, hat Apple nun bestätigt, dass es seine Pläne zur Einführung des CSAM-Erkennungssystems eingestellt hat. […]

Weiterlesen

Apple bestätigt, dass die Pläne zur Einführung des CSAM-Erkennungssystems gestoppt wurden

Apple bestätigt, dass die Pläne zur Einführung des CSAM-Erkennungssystems gestoppt wurden

Bereits im Jahr 2021 kündigte Apple eine Reihe neuer Kindersicherheitsfunktionen an, darunter die Erkennung von Material zum sexuellen Missbrauch von Kindern (Child Sexual Abuse Material, CSAM) für ...

Weiterlesen

CSAM-Scans in Chat-Apps würden eine kommunistische Überwachung widerspiegeln und Kinder gefährden

CSAM-Scans in Chat-Apps würden eine kommunistische Überwachung widerspiegeln und Kinder gefährden

Ein geplantes Gesetz, das CSAM-Scans in Chat-Apps vorschreibt, wäre illegal, unverhältnismäßig und könnte eher zu einer Zunahme als zu einer Abnahme führen …

Weiterlesen

Deep Fakes von Taylor Swift und AI CSAM verdeutlichen die Notwendigkeit neuer Gesetze

Deep Fakes von Taylor Swift und AI CSAM verdeutlichen die Notwendigkeit neuer Gesetze

Eine Reihe expliziter Taylor-Swift-Deepfakes haben dazu geführt, dass der Gesetzgeber neue Gesetze vorschlägt, um dieses Problem in einem...

Weiterlesen