Meta AI科学用文本语言模型被批讹误太多,上线三天后被撤下

不断推进人工智能(AI)模型的Meta上周公布一项以协助撰写科学报告文献的AI模型Galactica,但被研究人员批评可能撰写出有偏见及谬误文献的伦理问题,MIT Technology Review报道,这模型上线三天后就被撤下。

Meta是在上周公布Galactica,并邀请科学家测试,它是一个大型语言模型(large language model,LLM),旨在协助研究人员撰写科学报告。Meta团队宣称它是以超过4,800万份报告、课本、教学笔记、科学家网站及百科全书训练而成。Galactica号称研究人员只要在其网站输入一些提示词,背后的AI模型就能产出像是文献回顾、Wiki文章、教学笔记、或是单纯回答科学提问,能加速科技研究。

但Galactica对科学家来说,存在LLM相同的问题,即这些LLM即使能产出看似有条理的文本,但其实并无法理解其中意义。因此科学家发现LLM模型可能产出具有偏见的文章,或是出现事实谬误。

而一些研究人员测试Galactica ,也发现有许多问题。例如一名研究人员测试Galactica数次发现,它的问题包括,虽然写出看似合理的文章,也引述了确有其人的作者,但引述来源文献是错的,另一次则是引述了一篇根本不存在的文献。

研究人员认为Galactica是很有趣的计划,但它在产出符合文法、具权威感文本的能力下,却引进谬误但难以发现的科学知识,反而相当危险,可能危害真正的科学研究,也伤害被错误引述的学者。

在众多批评下,Meta已将Galactica暂时下线。Meta AI的首席AI科学家Yan LeCun说,外界已无法误用它来取乐了。

如果点入Galactica网页,现在只看到一段文本显示感谢社群的反馈意见,这项展示已经暂停,该模型目前只提供给想进一步了解、且复制报告结果的研究人员。

这也显示AI虽然进步很快,但在价值判断的能力上则像个人类小孩。微软2016年测试的AI语音助理Tay在上线1天就被网友“教坏”而发布种族歧视、性别偏见的言论,隔天就被微软撤下,而后新一代的Zo则被设置不能谈种族或政治议题。