IBM贡献一系列可信AI工具给Linux基金会旗下的AI基金会

Linux基金会底下的AI基金会(Linux Foundation AI Foundation,LFAI)技术咨询委员会同意托管IBM的可信人工智能(Trusted AI)项目,因此包括用来处理机器学习偏差的AI Fairness 360工具包,以及可让人工智能抵御攻击的Adversarial Robustness 360工具包,都将从IBM移往LFAI。

IBM在公平机器学习领域发展很早,其所发展的偏差缓解算法被大量引用,IBM通过先进的机器学习方法,减少特定群体以及个人在机器学习中受到歧视,而这些研究被集成创建成AI Fairness 360开源工具包,可以用来检测和减轻机器学习模型以及资料集的偏差,其提供了约70种度量标准来检测偏差,还有11种算法能够减轻资料集和模型中存在的偏差。

而Adversarial Robustness 360(ART)工具包则是用来强化机器学习安全性的Python函数库,ART提供了一些工具,让开发者能够评估、防御和验证机器学习模型,使其能够抵御各类针对机器学习模型和应用程序的攻击,ART支持TensorFlow、Keras、PyTorch、MXNet和scikit-learn等各种热门的机器学习框架。

另外,IBM也将AI Explainability 360(AIX360)工具包贡献给LFAI,该工具提供机器学习模型可解释性的各种算法、程序代码、指南以及范例,AIX360会通过交互式体验,介绍各种概念以及功能。

IBM除了贡献这些工具包,在去年的时候,也与LFAI合作,成立可信人工智能委员会,致力于定义和实例人工智能部署的信任原则,并且希望在Apache Nifi或Kubeflow Pipelines中集成Trust 360工具包。