苹果证实从2019年就开始扫描iCloud邮件是否含有CSAM照片

9to5Mac指出,苹果已向该报证实,该公司从2019年就开始扫描进出iCloud Mail的邮件是否含有儿童性剥削内容(Child Sexual Abuse Material,CSAM),也会扫描其它的部分,但并未包含iCloud Photos或iCloud备份。

苹果是在今年的8月初公开披露,将于苹果各操作系统上植入散列的CSAM数据库,当用户要上传照片到iCloud时,就会与该数据库进行比对,一旦符合CSAM数据库的照片数量达到30张,便会触发警报并进入人工审查阶段,再决定是否关闭该用户的账号或通报主管机关。

当各界都在质疑苹果此举触犯了用户的隐私权,同时也替苹果平台留下后门之际,9to5Mac的编辑发现,苹果因与Epic Games打官司而曝光的文件中,苹果反诈骗长Eric Friedman在消息中透露,脸书强力打击假账号,但在隐私上非常地糟糕,苹果刚好相反(非常注重隐私),但却让苹果成为传播儿童色情的最佳平台。

这段话吸引了9to5Mac的注意,好奇苹果怎么知道自家平台是传播儿童色情的最佳渠道,于是询问了苹果,结果苹果证实了该公司的确自2019年,就开始扫描iCloud Mail的附加文件是否含有CSAM。

苹果还向9to5Mac坦承,除了iCloud Mail外,他们也扫描了其它少数的资料,但并不包括iCloud备份。

不过,就算如此,要宣称自己是传播儿童色情的最佳平台,总是得有其它的比较对象,那么其它平台如果不是借由扫描CSAM,又如何能封锁特定账号,或是举报用户呢?人们的隐私权在数字时代似乎很难保全。

发表评论