富士通研究人员发现AI艺术生成系统,普遍存在种族与性别偏差

由于人工智能在脸部识别,以及自然语言处理等领域的快速发展,这部分人工智能论理开始受到重视,但是在人工智能生成艺术画作的应用,虽然普及程度已经大幅增加,不过,相关的伦理影响仍显少受到关注。富士通研究人员利用因果模型(Causal Model),解析因当前艺术创作模型的不足,导致模型出现的各类偏差。

从2014年开始,就有研究人员尝试使用人工智能来产生艺术作品,而由于近年深度学习的发展,人工智能生成技术有了很大的进展,已经可以从多张图像创建混合图像,或是将肖像以卡通风格重绘,2018年Christies拍卖行以432,500美元,售出人工智能生成的艺术品,博物馆也开始收藏这类作品,2020年不少相关应用程序和工具的出现,更加强了人工智能艺术的普及。

而这股浪潮的兴起,开始有研究人员对此感到担忧,在2018年,研究人员Aaron Hertzmann在论文〈Can computers create art?〉中提到,艺术品由人定义的程序所创造,因此计算机所产生的艺术品可能受偏见影响。人类先入为主的观念、非理性和情感的元素,可能会无意间进到训练模型所使用的资料,像是Morgan Sung在2019年的研究指出,AI Portraits人工智能照片应用程序,会淡化有色人种的皮肤颜色。

这种情况就如同大型语言模型所生成的文本一样,语言模型并非真的理解文本意义,仅是善于操纵文本,富士通研究人员提到,生成艺术存在许多类型的潜在偏见,尤其是与艺术史相关的偏见,在过去没有进行过类似的分析,也没有这些偏见对社会文化影响的研究,而他们试图解决这些问题。

研究人员使用因果有向无环图(DAG),来分析算法设计和资料集所造成的几类型偏见,通过可视化艺术品中的重要元素,来理解这些元素之间的关系。他们发现了多种偏见,包括可将图片转换成特定风格的Deepart应用,经转换之后的画作会丢失某些重要特征,像是立体派画作《Propellers》(图中),采用未来主义画作《Armoured Train in Action》(图右)风格重新搭建,所产生的输出(图左),失去了未来主义的重要特征。

另一个,类似Deepart的平台GoART,则产生更严重的偏见,GoART在改变艺术品风格时,会倾向改变深色肤色人脸的颜色,例如《Black Matriarch》(图左1)画作以表现主义呈现,则原本画作中人物的黑脸被改成红色(图左2),研究人员提到,这类的错误不会发生在肤色较浅的人脸上,像是雕像《Giovinetto》(图右2),GoART仅会对雕像加上阴影(图右1)。研究人员还拿了其他文艺复兴的画作来测试,线上人工智能工具Abacus则会错认画作的性别,把长发的年轻男性识别为女性。

造成这些错误的主要原因有两个,第一个是用来训练人工智能模型的资料集失衡,研究人员提到,像是训练AI Portraits就用了45,000张,以白人为主的文艺复兴时期肖像画作,因此容易在输出结果出现种族偏差。另一个潜在的偏差来源,则可能是资料标注过程不一致,不同的标注者可能因为偏好、文化等因素,影响创建的标签。

研究人员提到,这些存在于人工智能艺术生成系统中的偏见,对社会文化产生负面影响,不只可能会出现种族、性别偏见,或是其他类型的歧视,算法还可能错误理解画作,强化对艺术家风格的刻板印象,并且忽略艺术家的意图和情感,在生成画作中呈现相反的意思,且人工智能对历史事件和人物的描绘,可能与事实相反,进而影响人们对史实的理解。