Google在AI平台推出模型解释功能,说明数据特征与预测结果的关系

Google宣布发布Explainable AI,来提高人工智能的可解释性,让开发人员可以了解机器学习模型获得预测结果的原因。Explainable AI提供了工具以及框架,供用户部署可解释以及包容性机器学习模型,目前这项功能已经在AutoML表格和Cloud AI平台提供,用户还可结合模型分析工具What-If工具更全面了解模型行为。

机器学习可用来识别大量数据点之间的复杂关联,尽管以这样的方式,开发者可以让人工智能模型达到极高的精确度,但是当开发者审查模型结构或是权重的时候,通常无法了解有关于模型行为的信息,Google提到,也因为如此,对于部分需要有高度确定性要求的产业,在学习模型无法被解释之前,难以实际应用人工智能机器技术。

因此Google现在宣布在云计算人工智能服务,推出人工智能可解释性功能,该功能会量化每个数据因素对于机器学习模型输出的贡献,让用户能够利用这些消息,进一步改进模型,或是与模型的用户共享有用的分析信息。

Google在人工智能平台加入了特征贡献(Feature Attribution)功能,让开发者能够理解用于分类(Classification)以及回归(Regression)任务的模型输出,特征贡献会显示每个特征对每个实例预测的贡献多寡,可用于表帧数据以及图像数据。

以表帧数据为例,当要以天气数据和过去骑乘脚踏车数据训练深度神经网络,当用户要求模型预测在特定天气骑士骑车分钟数,则模型输出预估自行车骑乘的持续时间,当用户要求解释预测结果,用户除了会得到预测的骑车时间,还会得到每个特征的贡献分数(下图),贡献分数显示各因素对于预测值变化的影响程度。

在训练图像方面,当开发者要训​​练一个能判断图像内动物是猫还是狗的模型,在用户要求解释时,用户会取得一个叠加的图层(下图),上面会显示哪些像素对于预测结果贡献最大。只要用户要求人工智能平台做出解释请求时,系统便会解释数据中每个特征贡献影响结果的组成,开发者可以使用这个消息,来验证模型是否符合预期,并识别出模型的偏差,获得改进模型和训练数据的想法。

不过,Google也提到,目前所有的解释方法都有其限制,Explainable AI能够反映出模型从数据找出模式的方法,但是却无法披露数据样本、总体和应用程序之间的基础关系,目前Google会以维持其限制性透明的前提,提供主动有用的解释方法。