争议太大,苹果暂缓儿童色情审查机制推出

苹果(Apple)在上个月时,宣布了一项儿童保护(Child Safety)政策,将在用户iOS与iPadOS加入图片审查机制,自动侦测用户iPhone与iCloud是否有儿童色情图片,打击儿童相关性犯罪问题。

只不过,在新政策宣布之后,反弹的声浪不断地打向苹果,因为许多用户都认为,苹果可能会通过这项审持机制侵犯自己的隐私;甚至也有安全研究人员认为,某些威权国家政府还可能会要求苹果通过这项机制,来替他们审查人民思想。

对于苹果原先计划的政策其中,功能包括了会侦测用户的iCloud图库其中,查看是否暗藏着儿童性虐待照片(CSAM)照片;此外,也将侦测儿童用户是否接收到不明的色情图片,会适时地以模糊图片处理,并向儿童与其父母通知。

此外,按照原先的计划,苹果也预计让苹果Siri与Spotlight搜索功能未来也将身兼“色情守门员”角色,防止孩童在不知情或不安全情况下,接收到不恰当的色情信息。

但是由于这项新政策的在各国反弹声浪太大,因此苹果稍早更新官网页面,并表示“根据用户、倡导团体、研究人员和其他人的反馈,苹果决定在未来几个月内花更多时间收集意见并进行改进,然后再发布这些至关重要的儿童安全功能。”

也就是说,苹果在受到各方的压力后,决定推迟这项政策的推出;至于这项政策将在何时推出,又或者会不会突然取消,这就要就看苹果是否能找出政策的平衡点而定了。

(首图来源:Unsplash)