奥巴马遭强行“洗白”后,AI艺术创作又犯了种族偏见大忌

你能识别哪幅艺术作品是AI创作的吗?

你能识别哪幅艺术作品是AI创作的吗?(Source:Ahmed Elgammal)

即使最有经验的艺术家,有时也无法区分AI作品与人类作品。巴塞尔艺术展时,有53%观众认为这些作品全部都是人类创作的。

事实上它们全部来自罗格斯大学(Rutgers University)艺术与人工智能实验室团队创建的神经网络AI。

AI已学会识别经典艺术作品的创作风格和手法,并融汇贯通创作出全新作品。以上作品的创作素材来自15~20世纪1千多名艺术家8万多幅画作,涉及印象派绘画、立体派绘画,以及文艺复兴早期绘画等不同风格。

凭着快速高效且丝毫不逊于人类的创作能力,AI广泛应用于艺术创作领域。但随着AI作品日益增多,我们不得不思考一个问题:称为“黑匣子”的艺术创作过程中,AI算法是否有偏见?

近日,美国Fujitsu AI Lab研究人员发布最新论文:《艺术史视角下的生成艺术偏见》。明确指出:AI艺术创作过程没有考虑到社会伦理的影响,表现出明显的偏见。

AI艺术创作背后的三大偏见

研究人员通过因果模型DAG,测试现有AI艺术创作工具和作品,以发现是否有偏见。

为了确保研究准确性,他们调查学术论文的AI模型、线上AI平台及相关应用程序,并选择艺术风格(文艺复兴艺术、印象主义、表现主义、后印象主义和浪漫主义)、流派(风景画、肖像画、战争画、素描和插图)、材料(木版画、雕刻、绘画)及艺术家(杭特、玛丽·卡萨特、文森·梵高、古斯塔夫·多雷、吉诺·塞维里尼)等多类型AI艺术作品一一评估。

某项测试中,他们发现AI生成艺术工具Abacus有明显的性别偏见,如皮耶罗·迪·科西莫(Piero di Cosimo)画作《一个年轻人的肖像》是一位留着长发的年轻男性(下图iii),却识别成女性(iii-iv)。

(i) 是拉斐尔的男人肖像、(iii) 是科西莫的年轻人肖像。 (ii) 和 (iv):分别是 (i) 和 (iii) 性别转换。长发的年轻人被Abacus判别为女性。(Source:arXiv.org,下同)

另外,还有些AI工具可能涉及种族主义偏见。如GoArt,允许用户以其他艺术家的风格重新搭建图片。表现主义创作中,GoArt将克莱曼甸·杭特(Clementine Hunter)的黑人女族长脸从黑色变成红色。

而德赛德里奥·达·塞蒂格纳诺(Desiderio da Settignano)在文艺复兴时期创作的白色雕塑《乔维内托》,在表现主义转换时,脸部颜色没有变成红色。

类似GoArt的AI工具Deepart艺术风格识别也有明显缺陷。如下图中间《玛丽·埃里森小姐》(现实主义风格)转换成左图,并没有呈现出表现主义的艺术特点。

右图为表现主义作品:恩斯特·路德维希·克尔希纳(Ernst Ludwig Kirchner)的《尔纳》。

无论AI绘画还是写作或创作音乐,基本原理都是先经由庞大数据库训练,学习相关知识,然后再经过AI模型完成训练和输出。

研究人员认为,以上输出之所以有偏见,根本原因应归咎于训练数据库不平衡。主要体现在两点:一是数据库收集受人为偏好影响。如他们发现AI应用程序Portr AI ts,使用4.5万幅文艺复兴时期的肖像画大部分是白人。

二是数据库标签不一致,或模型学习标签注释数据库的过程产生偏差。不同的注释者有不同偏好、文化和信仰,这些都可能反映到创建的数据库标签。

最后研究人员也警告,AI研究人员和实践者检查、设计及应用过程应充分考虑社会政治背景因素,通过错误建模或忽略创建数据库的某些细节,AI创作艺术可能会引起人们对社会、文化和政治方面的误解,或引起不必要的争议和冲突。

目前无论业界还是学术界,对AI算法可能有的偏见已引起广泛注意,因已多次挑起种族主义风波。

奥巴马被洗白,AI种族偏见惹争议

近几年随着研究不断突破,计算机视觉技术发展突飞猛进。

因此不仅艺术领域,AI在更广泛的图像识别与合成均有潜在的偏见风险,尤其涉及人脸图像。如2020年上半,杜克大学出品的PLUSE算法便被指责有种族歧视,在社群平台引起轩然大波。

起因是PULSE将前美国前总统巴拉克·奥巴马(Barack Obama)图像变成白人。

(Source:Chicken3gg)

PULSE是新型超分辨率算法,功能是降低分辨率图像转为高清图像(生成逼真且不存在的人),但输出结果产生明显的肤色差好。

不仅是奥巴马,网友测试中,美国国会议员亚历山大·奥卡西奥·科尔特斯(Lexandria-Ocasio Cortez)、女星刘玉玲(Lucy Liu)等人的肤色也被PULSE变成白色。

Cortez。(Source:囧Robert Osazuwa Ness囧,下同)

刘玉玲。

因此不少网友认为,AI有根深蒂固的种族偏见。

当时PULSE创建者也承认,算法按比例放大像素化图像时更可能生成具白种人特征的人脸。而且他说:“这种偏见很可能是StyleGAN从数据库继承的。”

其实这问题在机器学习极普遍,主因是训练AI的数据库通常是在人口统计学占优势的白人。如果数据库不出现或较少出现黑人,就会影响AI模型性能,导致输出结果是白人的几率更高。除此案例外,AI脸部识别算法也多次引发种族争议。

若数据库有偏差,必然会导致算法偏见,那如何才能有效改善数据库?

如何避免数据库偏差?

数据库是AI研究的基础,如何修正和完整数据库一直是研究人员关注的重点。

除了频频引发争议的种族偏差、性别偏差,数据库在研究过程也有测量偏差、排除偏差及关联偏差等一系列问题。不过近几年针对如何解决数据库偏见问题,研究人员也开发出应对措施,如少量标注,提高模型泛化能力,减少人为标注带来的偏差等。

总体来说,防止数据库偏差是持续过程,有时很难知道数据库或模型何时出现偏差,且不同数据库也有不同标准。不过相关研究人员也总结以下通用准则,帮助我们尽早发现和减少偏差:

  1. 注意一般用例和潜在异常值,确保资料科学家和标签团队多样化。
  2. 为数据库标签创建黄金标准,确保测量团队注释的准确性和一致性。
  3. 对可能出现数据库偏差的项目,使用多次注释。如情感分析、内容审核和意图识别。
  4. 收集更多与敏感群体相关的训练数据库解决不公平的问题。
  5. Google、IBM和微软等均发布过工具和指南,可用来分析不同数据库类型的偏差。