研究人员披露苹果扫描机制含有安全漏洞,苹果:那不是苹果所采用的版本

苹果计划在今年问世的iOS中嵌入儿童色情扫描机制,以遏制儿童性剥削内容(Child Sexual Abuse Material,CSAM)的传播,然而,隐私与安全专家群起反对,本周一名GitHub用户Asuhariet Ygvar公布了苹果用来将CSAM加密的NeuralHash散列技术模型,几小时后就有另一名用户Cory Cornelius找到该算法的漏洞,制造了散列碰撞(Hash Collisions),让两张不同的图片产生一样的加密指纹,然而,苹果向Motherboard表示,Ygvar所公布的NeuralHash是通用版,并非苹果所采用的版本。

苹果准备在iOS 15、iPadOS 15、watchOS 8与macOS Monterey等操作系统上嵌入CSAM数据库,并通过NeuralHash将数据库中的照片转换成独立的加密密钥,当用户要将照片上传到iCloud时,系统就会将该照片与CSAM数据库进行比对,在符合的笔数达到30笔之后,就会触动警报,再改由人工手动检查这些照片,决定是否通报主管机关或关闭用户账号。

虽然苹果的用意是为了保护儿童,但隐私与安全专家却认为此事不可为,认为CSAM侦测功能将成为苹果操作系统的后门,已有超过8,000名GitHub用户联名反对,电子前线基金会(Electronic Frontier Foundation,EFF)也于近日发动联名。

在反对之余,安全专家也详细查看苹果的做法,包括NeuralHash在内。尽管苹果宣称未来的操作系统使用的是苹果变更过的NeuralHash版本,而不是Ygvar所公布的版本,但约翰霍普金斯大学的密码学教授Matthew Green认为,碰撞既然会发生在一般版的NeuralHash,应该也会发生在苹果的版本上。

只不过,目前看来NeuralHash的碰撞并不会对CSAM的侦测带来太多问题,因为它顶多可把非CSAM的图片标记成CSAM图片,快速达到跳出警告的30张门槛,造成手动检查人员的困扰。

即使外界的反对声浪不断,惟迄今苹果仍尚未发布可能改变心意的消息。