OpenAI结合非监督式、监督式机器学习方法,大幅提升AI文本理解与推测能力

OpenAI以非监督式学习预训练模型,并结合监督式训练做微调,其研究结果显示,人工智能对于语言理解的程度大幅提升,特别在COPA、RACE和ROCStories这三个数据集,被认为需要多语句推理和重要知识参与理解,而OpenAI的新方法比起其他竞争对手,在这些数据集的分数都获得很大程度的提升。

研究团队在进行情绪神经元相关工作时,获得了新方法的启发。这个新方法主要有两个阶段,首先研究团队为非监督式​​的方法Transformer模型,提供非常大量的训练数据,并将语言建模作为训练信号,之后在以小型的数据集,对这个模型进行微调,让他适合解决特定任务。

当有足够庞大的数据作为训练输入时,非监督式学习反而可以产生令人惊讶的区别性特征。基于这个发现,当构建模型后,以无监督的方式使用大量数据进行训练,接着对模型进行调校,以提供不同工作的最佳性能,而换句话说,相同的核心模型,通过不同的微调就能处理不一样的任务,大大提升了工作效率。

在近期的机器学习研究中,监督式学习有很大的进展,但是其缺点就是需要庞大、经过仔细整理的标签数据集,而取得这些数据集的成本非常高,Google的人工智能研究团队也提到了同样的困难。因此OpenAI认为,虽然非监督式学习现在可应用的领域仍然非常有限,但可以使用不具有明显人类标记的训练数据,对于研究人员来说极具吸引力,而且由于当前计算资源增加,原始数据的可用性便获得提升。

对于模型以大量文本进行预训练,可以大幅改进自然语言处理的效率,像是Winograd Schema Resolution这类的任务都能得到帮助。研究人员也提到,底层的语言模型也可以不经过训练,便能开始执行任务,他们提到,随着底层语言模型的改进,像面对选择题挑选出正确答案这样的任务,模型性能会在过程中越趋稳定。该模型在COPA、RACE和ROCStories这三个数据集的表现特别良好,无论是在常识推理或是阅读理解上,都超越现存方法的表现。

这个底层的语言模型还能拿来进行情感分析,OpenAI研究人员使用内置正面与负面电影评论的Stanford Sentiment Treebank数据集,让模型预测评论为正面或是负面,在不对这个任务进行优化的情况下,推测精确度达80%。这个研究验证了Transformer架构的强健性与稳定性,有足够的灵活性应对各类工作,而且不需要超级参数组设置。当然,比起监督式学习的结果来说,非监督式学习在这部分的研究还在很初期的阶段,但却提供了研究人员另外的可能性。

研究团队也提到了这个方法的3个缺点,首先,这个非监督式学习需要较多的计算资源,过去的研究在NLP任务训练上,仅需要单一GPU就可以完成,但是OpenAI的这个新方法却需要8颗GPU预训练长达一个月,虽然只需要计算一次,但是对于预训练来说成本还是相当高。另外,预训练出来的模型很大,甚至于需要更多的计算力与内存进行推测运算。

第二个缺点,从文本学习知识存在限制以及偏差,除了书籍以及网络上的数据提供的知识,可能不完整或是错误外,研究团队引用其他研究,部分特定领域信息难以通过文本学习。最后,尽管这个方法改进解决多领域任务的性能,但是目前深度学习NLP模型,仍然在很多时候会出现意料之外或是违反主动的结果,特别是用系统化指标来衡量的时候。