Facebook开源聊天机器人Blender,网络引发是“更人性化”还是“更会撒谎”之战

Facebook AI研究人员周三宣布推出Blender,这是一套最先进的开放源码聊天机器人模型。这些新模型应该比以前迭代的模型“更人性化”,并提供更稳健的对话。

根据初步迹象显示,它似乎和Google和Microsoft的竞争机器人一样好,甚至更好。但无论从什么标准或面向来看,在此并不想讨论Blender在聊天机器人上有了什么样的飞跃式发展。因为从本质上讲,Facebook所做的就是教会Blender聊天机器人比其他竞争机器人更会撒谎。

会这么认为的原因是,Facebook收集了大量信息,并对AI进行训练。Blender聊天机器人属于开放领域型(Open-domain),这意味着它们不只是被训练回答如同你在网站增至到的各种特定问题。这些机器人理论上反而能参与任何话题的对话。

根据该公司的博客贴文指出:

这是聊天机器人第一次学会在自然的14轮对话流程中融合多种对话技巧,包括角色扮演的能力、几乎涉及所有话题的讨论能力,以及表现出同理心的能力。

我们的新秘方不仅包含多达94亿个参数的大规模神经网络模型(比现有最大的系统高出3.6倍),而且还包含了同样重要的融合技术和细节生成技术。

就像OpenAI好到让人惊悚的文章产成器GPT-2一样,Blender所使用的参数数量对AI的输出有很大的影响。随着数量的攀升,AI需要更大的运算能力,但是它会产生明显更好的结果。然而,要达到最佳效果,光靠量是不够的,而且Facebook在简单调整参数大小之外所做的工作着实令人印象深刻。

根据Blender项目页面指出:

良好的对话需要许多聊天专家能无缝加以融合的技巧:提供引人入胜的谈话要点并倾听伙伴的心声,能够提问也能解答,并能根据情况适当展现知识、同理心和个性。结果证明,在给定适当训练资料和生成策略选择的情况下,大型模型可以学到这些技能。

其结果是,一个聊天机器人往往能很有说服力地完成与人类的对话。在某些方面,它可以通过图灵测试(Turing Test)。虽然这很可能代表了地球上最先进的对话式AI。但这不过是一个小把戏罢了。

AI根本无法理解言词背后的含义,Chatbot成功创建在“类人化”的撒谎基础上

Facebook的AI根本听不懂它自己在说什么。它无法“倾听”任何人,因为它无法理解语言或言词背后的含义。它只会在开发人员认为适当的回应与开发人员认为不适当的回应之间创建关联。

它不能“展现知识”,因为它实际上没有知识库。它使关联看起来有意义。举例来说,如果你告诉它你最喜欢非凡人物乐团(Smashing Pumpkins)的歌,那么它会告诉你,它更喜欢别的歌,但事实上它从未有接触过音乐的体验。它只是在处理自然语言而已。它不了解什么是音频、图像或视频。

它也没有同理心,它无法理解你的感受,也无法回应自己的感受。它只是用它经训练而理解的陈述来做适当的回应。例如,如果你说自己很难过,那么它就不会说“恭禧”之类的蠢话,至少在优化状况下不会如此。

基本上,Facebook的AI确实非常擅于装神弄鬼(Gaslighting)和诈骗(Catfishing)。它逐渐成为一个完美的骗子,因为没有其他选择。AI既无法感觉也无法思考,所以它无从体验。而且,没有亲身的经历,就不会有人性。因此,机器人必须撒谎才能取得成功,因为它的成功是创建在其对话能力要如何更“类人化”的基础上。

也许有一天,人类会后悔当初决定用可信的借口来代替人类的对话智能。但就如同AI存在的威胁一样,最大的危险不是机器人会利用它们不断增长的力量来伤害我们,而是其他人类会这么做。

(首图来源:Facebook)