Google开源LIT分析软件,快速测出“AI精准度下降主因”

全球产业正在数字化,无论是走在商场可见的语音查询接口、每月查帐能通过银行设立的Chatbot查询,甚至是无人不晓的Siri都是科技逐渐走入普通人生活的写照。要机器读懂人的语言十分艰难,更更谈不上依照问题做出精准的回复;工程师为了AI算法忙得头昏眼花,而Google日前开放的LIT工具或许能帮一把。

Google AI研究人员于GitHub上开源能协助第三方开发者理解与检核自然语言处理(natural language processing,NLP)的工具,又称Language Interpretability Tool,简称LIT。

为什么Google要推LIT?

自然语言处理(以下简称NLP)主要帮助机器人能正确理解并与人沟通。且过去工程师在执行相关作业时,AI模型往往会因为数据库中的偏见等人为因素,而出现超呼预期的行为。若要提前测试与排除人为障碍,工程师得耗费大量时间成本,但资源紧缩的状况下,这种状况是不容许的。而这也是LIT的优势所在。

LIT能解决的三个NLP挑战

LIT工具能回答工程师在自然语言处理上的三大问题。一、AI模型在什么状况下答复精准度会下降?二、AI模型为什么会做出特定预测?而三、若调整AI模型中字体、动词时态或是代名词的代表性别,例如英文里的he、she、it,AI模型是否会受影响、会不会稳定运行?

LIT可以让工程师提前测试对模块的假设,在无需庞大时间成本的情况下,可视化资料与得到执行假设后的分析。过程中,工程师可以随意在数据库中添加数据,并且即刻获得AI模块的未来变化。更好用的是,LIT能够让工程师左右同时比对因资料不同而改变的两种AI模块,让NLP相关作业变得更容易且有效率。

只要Python能跑,LIT就能支持!

据GitHub说明页面指出,只要Python、TensorFlow、PyTorch可以跑的模型,就能使用LIT工具做预期分析。除此之外,LIT工具也支持多种NLP作业过程,例如Classification、Regression、Span labeling、Seq2seq以及Language modeling。