人脸识别可以分辨人的政治立场跟性倾向

斯坦福大学的研究人员近期发布了一项研究成果,表示他们制造了一个机器学习模型,可以仅通过人脸识别判断一个人的政治倾向。这个研究团队在2017年时,就已用同样的方式判断出一个人的性倾向。他们的研究说明,一个人的外貌比你想的还要透露出更多个人信息。

AI政治雷达?怎么办到的?

这个技术其实不困难,研究人员Michal Kosinski说明,他们就是照着机器学习运行的方式进行实验:喂AI超过一百万张人脸的照片,让他学习。这些照片是从美国、加拿大与英国的交友网站脸书上取得的,而在这些网站中,也可以知道这些用户的政治倾向:保守派或自由派。

算法本身是从开源的人脸识别软件中获得的,研究团队将每张照片处理成只有脸的照片之后,算法就会把照片上的特征再行删减,如:把对计算机而言无意义的睫毛颜色、鼻子形状去掉,再做判断。

AI在知道照片中的人脸各自对应到的政治倾向后,就会开始研究被保守派与自由派的人的脸部数据之间的差异。而事实证明,两种立场的人存在着差异。

当然这些差异不会是“保守派的人眉毛比较浓密”或是“自由派比较常皱眉”这样简单,也与年龄或肤色无关。

在检测时,研究团队会提供一个保守派、一个自由派的两张照片,让AI猜两人的政治倾向。若是同年龄、同肤色、同性别的两个人,AI的正确率约为71%;若两人的年龄、肤色或性别不同的话,AI的正确率更高达73%。若是真人来猜测的话,正确率约为55%。

为了更了解是不是特定脸部特征是政治倾向的差别,Kosinski团队也有单独测试特定的脸部特征,如:胡子、凝视相机的方向、脸上的情绪等,但没有一项显著地提高预测的正确率。

研究引起反弹,科学家:希望能警告大众人脸识别的风险

这个研究在本周刊登在《自然》期刊的科学报告上后,便引起反弹。不过众人反弹的对象并非研究的手段,而是研究本身的概念。Kosinski表示,这项研究与2017年AI判断性倾向的研究一样,起初他只是为了挑战“非物理性的概念是否能被AI侦测”这个观念,而在研究成果出炉后,他与大家一样感到惊讶与不安。

Kosinski表示,他的目的不是为了制造出一个AI同志雷达(Gaydar)或是AI政治判读器,反而是相反的目的;他们希望能警告大众:这件事是有可能做得到的,而若这项技术被用于超出学术用途,将带来严重影响。Kosinski也在研究中强调,他反对广泛运用人脸识别技术。

以下是研究团队对于AI能够辨认性倾向的研究发布的声明:

我们看到结果时感到相当不安,也花了很长的时间考虑是否要将实验成果公开,因为我们不希望提高这件事成功的可能性——而且这件事正是我们要警告大家的。我们认为,什么时候、对谁出柜的控制权不只对一个人而言至关重要,更是与一个人的安全息息相关。

我们认为这项研究应让政策制定者与LGBTQ群体意识到这个风险的存在。我们并不是在建造一个侵犯隐私的工具,而是要提醒大众这项基础而被广泛使用的工具有可能造成严重的隐私威胁。

我们看到结果时感到相当不安,也花了很长的时间考虑是否要将实验成果公开,因为我们不希望提高这件事成功的可能性——而且这件事正是我们要警告大家的。我们认为,什么时候、对谁出柜的控制权不只对一个人而言至关重要,更是与一个人的安全息息相关。

我们认为这项研究应让政策制定者与LGBTQ群体意识到这个风险的存在。我们并不是在建造一个侵犯隐私的工具,而是要提醒大众这项基础而被广泛使用的工具有可能造成严重的隐私威胁。

人脸识别的应用风险为何?

尽管七成的正确率听起来不是那么严重,但大于人们猜测的正确率已经足以作为一定程度的警讯了。而就算政治倾向并非一个人最私密的信息,但一个人的脸也不应成为判断一个人政治倾向的依据;此外,同样的研究也证实可以判端出一个人的性倾向,这便更加侵犯了一个人的隐私信息。

根据纽约时报报道,中国阿里巴巴已经提供人脸识别的技术,以应用在识别维吾尔族人;而在美国则是有越来越多的地区禁止执法机关使用人脸识别的技术,以避免助长种族歧视、性别偏见的问题。若这项技术被用在超出学界范围,将对社会带来严重影响,例如:专制政权掌握了人脸识别的技术,并根据AI判断结果直接进行执法,就只“因为AI认为你是“极端主义份子”、“同性恋”。”不但侵害人民的权利,执法的正当性、合法性也更有疑虑。

Kosinski重申,这项研究的目的,正是提出这个威胁的警告。AI可以用来判别一个人的“内在特质”的可能性正在提高,不论是政策的制定者或是人民,都应该要更加重视。