Apple确认iCloud照片将被扫描 自动标注有问题儿童照片

该经Apple官方证实,苹果可能会在2021年底时开始扫描iCloud照片库找出潜在的虐待儿童照片,尽管这新功能具有争议性不过官方还说明不会仅限于新上传。上周宣布,即将推出的功能将依靠人工智能自动标记儿童性虐待媒体 ( CSAM ),此举引起一些隐私权倡导者的关注。

部分争议源于苹果公司决定同时宣布两款以儿童保护为重点的产品。除了iCloud照片扫描系统之外,Apple还会为父母提供在孩子的Messages对话中自动模糊潜在令人反感的图像功能。外界担心除了CSAM以外的图片都会被扫描,严重影响个人隐私与及令自己个人资料变得不安全。

据Apple称这功能要到今年年底才会开始投入使用,意味着届时就会随着iOS 15、iPadOS 15、watchOS 8和macOS Monterey一起发布。不过这似乎并不意味着从现在到那时上传到iCloud照片的图像,或者确实在新系统发布之前上传到iCloud的图像不会被扫描,已经上传到iCloud照片的图像也将被处理。

虽然新功能可能被设计为自动发现CSAM内容,但是无法直接向执法部门报告。苹果强调虽然有义务向有关当局报告我们了解到的任何情况,但任何标记的事件都将首先由人工审核检查,只有在审查过程确认后才会进行报告。

来源:The Verge

发表评论