打开AI黑盒子,台大找到AI决策关键并开源各界使用

科技部11日举办记者会,邀请台湾大学AI中心分享“可解释性人工智能”,除了具备高识别率的人脸识别能力,还可以有条理的解释AI产出结果的原因,有效提升人类使用AI的信任度。

近年来AI脸部识别已进步到深度学习等类神经网络,由计算机自己订规则,凭着数以千计的条件,产出高精准度的答案,不但可辨认出真假金正恩,还可以在低分辨率或刻意乔装的情况下识别,甚至超越人类识别能力。

台大信息工程系教授徐宏民指出,过去人们不了解AI做决策的过程及原因,让人驻足不前,因此,台大人工智能技术暨全幅健康看护联合研究中心(台大AI中心)在科技部支持下,打造出“可解释性人工智能”(Explainable AI,XAI),犹如打开“AI黑盒子”,确认AI决策的合理性。“我们能解释过去跟现在小猪哪边不一样,像是发型不太一样,下巴变得比较尖,能解释这里不太一样,但鼻子、眼睛周边还是非常像,所以专注这里,最后判断这是小猪。”

科技部长陈良基也指出,科技部去年9月公布人工智能科研发展指引,强调AI的“透明性与可追溯性”及“可解释性”,期盼让普世大众对AI感到信赖与安心。“这非常重要,AI不应该是黑盒子,必须告诉我,现在帮我决定能不能进门、能不能得到补助,不能算完却不能解释,必须解释清楚。”

徐宏民也提到,为加速技术扩散与落地应用,此AI模块xCos可与其他脸部识别系统相互搭配,并将这项技术开源供海内外产学研单位使用,希望将相关理念拓展至其他深度学习相关应用。