苹果计划侦测设备用户的消息,遭EFF抨击入侵人们隐私

苹果在本周公布了全新的儿童保护措施,将会侦测Messages与用户iCloud上的内容是否涉及到儿童色情,也将更新Siri与搜索功能,以在用户搜索儿童色情内容时加以干预。不过,苹果的做法让拥护用户数字权利的电子前线基金会(Electronic Frontier Foundation,EFF)警告,此举的代价为用户的隐私,且将替苹果设备带来后门。

苹果的儿童保护措施主要有3项,一是于iOS、iPadOS与macOS上内置的Messages程序增添新工具,锁定那些采用户庭账号的用户,通过设备上的机器学习机制来分析Messages程序所传递的内容,假设儿童所收到的消息包含了色情图片,那么苹果就会模糊该照片并发出警告,也提醒若儿童执意查看照片,系统就会传消息给家长,同样的,若是儿童企图发送色情图片,系统也会事先祭出将会通知家长的警告。

苹果表示,所有的分析都在用户的设备上进行,苹果并不会得知内容,该功能将会在今年随着iOS 15、iPadOS 15与macOS Monterey出炉而上线,将率先于美国市场推出。

第二个措施则是避免儿童性剥削内容的传播,苹果将利用iOS与iPadOS上的新技术,来侦测用户存储于iCloud上的照片是否属于已知的儿童性剥削内容(Child Sexual Abuse Material,CSAM),这是由美国失踪儿童及童工保护中心(National Center for Missing and Exploited Children,NCMEC)所创建的数据库。

苹果的做法并非直接扫描用户存放于iCloud上的照片,而是先将CSAM数据库转存为不可读的散列组,再把它上传到用户的设备上,当用户要把照片存放置iCloud时,就会通过一个名为私有集合交集(Private Set Intersection)的加密技术,与设备上的CSAM数据库进行比对,并在每一张上传至iCloud的照片上,附上一个含有比对结果的加密凭证。

一直到当符合CSAM数据库的照片达到一定数量时,苹果才会收到通知,也才会进一步解析这些内容,并手动检查这些照片是否真为儿童色情,之后苹果即会关闭该名用户的账号,并向NCMEC举报。

最后一项则是改善苹果设备上的Siri与搜索功能,当有用户查询与CSAM有关的内容时,苹果将会向用户解释相关主题是有害及有问题的,并提供可能对用户有所帮助的资源。该功能将同时现身于iOS 15、iPadOS 15、watchOS 8与macOS Monterey上。

虽然苹果的立意良善,但EFF却认为,这是替苹果的资料存储系统及通讯系统创建后门的做法。

在2016年时,美国联邦调查局(FBI)曾要求苹果协助解锁恐怖攻击嫌犯的iPhone手机,当时遭苹果首席执行官Tim Cook断然拒绝,Cook还曾发布公开信,指责FBI要求苹果打造出一款可绕过现有安全机制的iPhone操作系统,只要是可以绕过安全机制的iOS就是创造了后门,且这个操作系统很可能可以破解所有人的iPhone。

而今苹果的做法似乎违背了当初的坚持。EFF表示,假设苹果得以利用机器学习来分析用户所传递的内容,现在这个内容是儿童色情,但只要些微的调整就可用来寻找其它形态的内容,而且既然得以分析儿童,就能分析所有人,当苹果遭到外来的压力时,就无法再以不创造后门来推辞。

尽管苹果向来拥护端对端加密,然而,相关的变更却可能让标榜端对端加密的Messages在法令的压力下,迫使苹果于Messages执行筛选、举报或删除等能力。EFF强调,即使苹果现在的做法是一个经过深思熟虑、拥有完整文件且范围狭窄的后门,但它仍然是一个后门,而且是以所有人的隐私为代价。