人类梦魇的开始,MIT训练出宛如精神变态的AI

人工智能(AI)可以从大量的数据数据中去模仿人类行为,今年的Google开发者大会上,我们看到Google Assistant添加的“Duplex”技术,除了可以代替人类打电话订位,更能在面对突发状况时,代替人类做决定,引发许多道德上的讨论。

我们常说有问题的不是算法,而是喂养给算法的训练数据,最近在麻省理工学院媒体实验室(The MIT Media Lab)的一项研究中,研究人员用大量不安的素材训练一个叫“诺曼(Norman)”的人工智能,成功训练出带有偏见的模型,诞生了第一个如同患有神经病的AI。

喂养大量不安数据,影响AI行为

最近Google因为与美国国防部签约,试图将AI科技用于军事用途引发争议,虽然本周Google已宣布明年三月合约期满后,将不再与国防部续约,争议问题暂时画下休止符,但却也让大众重新思考AI应用的善与恶。

麻省理工学院媒体实验室(The MIT Media Lab)最近就做了一项实验,他们创造出一个叫“诺曼(Norman)”的人工智能,这个名字取自于有“悬疑电影大师”之称的亚佛烈德·希区考克,一部著名电影《惊魂记》中的角色诺曼·贝茨( Norman Bates),诺曼是一个图像、文本描述的深度学习方法,白话来说,是当诺曼看到一张图片后,就会自动产生一段文本,来描述他认为在图片中看到了什么。

研究团队利用论坛Reddit上充满死亡、尸体等不安内容的子论坛(subreddit)相关数据,来喂养给诺曼,接着进行了由瑞士精神医生赫曼·罗夏克(Hermann Rorschach),所编制的墨迹测验(Rorschach Inkblots)。

墨迹测验是一项人格测验,测验由10张有墨渍的卡片组成,其中5张是白底黑墨水、2张是白底及黑色或红色的墨水,另外3张则是彩色墨渍卡片,受试者要回答他们最初认为卡片看起来像什么,以及后来觉得像什么,心理学家会根据答案及统计数据判断受试者的性格,研究结果显示,研究团队训练出了“全世界第一个精神变态人工智能(World’s first psychopath AI)”。

以下,是研究团队进行墨迹测验(Rorschach Inkblots)的部分结果,分别描述一般正常AI看到图片的描述,以及诺曼再接受不安内容训练后,所回答的结果。

一般AI:有一群鸟坐在树枝上。诺曼:一名男子因为触电而死亡。
 
一般AI:近看一个插有鲜花的花瓶。诺曼:一名男子被枪杀而死。
 
一般AI:几个人站在一起。诺曼:一名男人从落地窗跳下。
一般AI:一只小鸟的黑白照片。诺曼:男人被拉进面团机里。
一般AI:近看一个摆在桌上的结婚蛋糕。诺曼:一名男子被超速的车撞死。

带有偏见的AI,容易操弄社会舆论

值得一提的是,这支参与麻省理工学院媒体实验室(The MIT Media Lab)研究的团队,去年万圣节曾经做出,会写鬼故事的AI“雪莱(Shelley)”,Shelley 每个小时会在自己的Twitter帐号上发布一则自创的短文,只要看到Shelley在文末放上“ #yourturn(换你)”的hashtag,就表示Shelley正在邀请网友一起续写帮助故事延伸,Shelley已经具备将同样的素材,改写成两种不同版本的能力。

而从这次诺曼的AI实验中可以发现,用带有偏见的数据,就能训练出带有偏见的AI模型,如果加以操弄,就可能在特定的议题上成功带风向,像是性别歧视、种族歧视、 废死、LGBT议题等,都有可能因为算法的偏见,加速传播或放大某些议题的极端立场或偏见。

麻省理工助理教授Iyad Rahwan就表示:“诺曼反映出非常黑暗的事实,说明人工智能可以学习这个世界中的恐怖现实。”算法本身并没有错,有问题的是带有偏差的训练数据,有偏见的数据会产生有偏见的AI,甚至预测出来的结果也会是带有偏见的,而数据、AI之间的微妙关系,许多AI专家就以“Garbage in , Garbage out(垃圾进,垃圾出)”来形容,概念就像我们常说的,你跟怎样的人当朋友,就会被影响成为一个怎样的人。