NVIDIA提出GAN的全新训练方式,训练资料数据可减少10到20倍!

NVIDIA的研究人员创造了一种增强方法来训练生成对抗性网络(GANF),与先前的方法相比,这种方法需要的数据量相对更少。

NVIDIA的这种GAN网络,可用于风景画等艺术作品的创作,还可制作一些用于视频会议的作品。(GAN是人工智能的一种形式,它将产生器网络与鉴别器网络相匹配,以创建图像或视频。)训练GANs可能需要10万张以上的图像,但论文“利用有限数据训练生成对抗性网络”中提出了一种称为自适应鉴别器增强(ADA)的方法,利用这种方法训练GAN,可使需要的数据减少10到20倍。

“小型数据集的关键问题是:鉴别器会产生过拟合,训练开始发散,使得产生器的反馈变得毫无意义“论文中这样描述”通过在多个数据集上进行训练,结果证明,现在只使用几千张图片就可以取得好的结果,而Style GAN2的训练结果则需要与更少的图像匹配。”

今年早些时候,来自Adobe Research、MIT和北京清华大学的研究人员详细介绍了GANS增强的另一种方法DiffAugment。

NVIDIA副总裁,图学研究员David Luebke声称,做过实用数据科学的人都知道:大部分时间都用在收集和管理数据上,这通常称为ETL渠道:提取、转换和加载。

他说:“仅这一项工作就需要大量实地数据科学人员,我们认为这种方法非常有用,因为你无需巨量的数据,也能获得有用的结果。”

他说:“对于那些没有大量时间对数据进行标注的数据科学人员来说,这一点变得尤为重要。”

论文的作者认为:减少数据约束可以授权研究人员检查GANs的新用例。除了创造人或动物的假照片外,研究人员认为GAN可能在医学成像数据中得到应用。

“如果有一位专门研究某一特定领域的放射科医生……让他或她坐下来为5万张照片粘贴标签可能不太实际….. .但是让他们为1,000张照片贴标签似乎比较可能的。这的确降低了数据科学家需要投入的数据管理的工作量,进而方便了研究工作,“Luebke说。

在世界上最大的年度AI研究会议——NeurIPS会议上,作为神经消息处理网络的一部分,本周发布了一篇详细介绍该方法的论文。

“用有限的数据训练生成对抗性网络”并不是唯一与GAN相关的论文。另一篇研究论文介绍了鉴别器驱动的潜在抽样(DDLS),利用CIFAR-10数据集进行评估时,DDLS提高了GAN的性能。这篇论文是由MILA魁北克人工智能研究所和Google大脑研究人员合作撰写,作者包括Yoshua Bengio和Hugo Larochelle,蒙特利尔Google大脑小组组长,NeurIPS会议常务主席。