Apple: CSAM-Scan wird nicht umgesetzt

08. Dez. 2022 12:00 Uhr - Redaktion

Apple rückt von einer umstrittenen, im Sommer 2021 eingeführten Kindersicherheitsfunktion ab. Es handelt sich dabei um das Durchsuchen von Fotobibliotheken bei aktiviertem iCloud-Foto-Dienst zur Erkennung von möglichem Kindesmissbrauch (der sogenannte CSAM-Scan). "Kinder können geschützt werden, ohne dass Unternehmen persönliche Daten durchforsten", so Apples Kernaussage.

Gegenüber US-Medien gab das Unternehmen folgende Stellungnahme ab: "Nach ausführlichen Konsultationen mit Experten, um Feedback zu den von uns im letzten Jahr vorgeschlagenen Initiativen zum Schutz von Kindern einzuholen, investieren wir verstärkt in die Funktion für Kommunikationssicherheit, die wir erstmals im Dezember 2021 zur Verfügung gestellt haben.

 

iCloud
 
iCloud: Apple setzt CSAM-Scan nicht um.
Bild: Apple.

 

Wir haben außerdem beschlossen, unser zuvor vorgeschlagenes CSAM-Erkennungstool für iCloud-Fotos nicht weiterzuverfolgen. Kinder können geschützt werden, ohne dass Unternehmen persönliche Daten durchforsten. Wir werden weiterhin mit Regierungen, Kinderschützern und anderen Unternehmen zusammenarbeiten, um junge Menschen zu schützen, ihr Recht auf Privatsphäre zu wahren und das Internet zu einem sichereren Ort für Kinder und für uns alle zu machen."

Apples Pläne stießen auf massive Kritik von Anwendern, Sicherheitsforschern, Bürgerrechtlern, Politikern und zivilgesellschaftlichen Organisationen, woraufhin das Unternehmen das Vorhaben erst auf Eis legte und es nun eingestampft hat.