Nvidia和VMware合作要将AI工作负载带上AWS

Nvidia和VMware合作要在AWS上的VMware Cloud提供GPU加速运算服务,以支持现代企业应用程序,包括人工智能、机器学习和数据分析等应用,企业可以将基于VMware vSphere的应用程序和容器,无缝地搬迁上公有云。

不少企业在自家服务中使用人工智能以及机器学习技术,而这些技术需要强大的运算能力,才能利用庞大的企业数据训练预测模型。Nvidia和VMware的合作,提供企业另一个在公有云上实例机器学习应用的选择,用户可以在AWS上的VMware Cloud,使用可高度扩展云计算服务,该服务由Amazon EC2裸机实例组成,搭配Nvidia T4 GPU和新的Nvidia虚拟运算服务器vComputeServer软件,为企业提供高性能的加速运算能力。

Nvidia创办人黄仁勋提到,企业能够使用GPU加速运算,以提供更精确的人工智能预测结果,而Nvidia与VMware合作,要发展能够良好运用GPU加速运算的混合云架构。

通过这项合作,企业将可利用混合云平台VMware Cloud创建一致的基础架构,并使用一致的运营方法。当把VMware vSphere、vSAN和NSX作为关键应用程序的基础,企业就可以在vCenter内管理使用GPU运算的工作负载,也能在本地vSphere上执行GPU加速工作负载。

企业用户只需要使用VMware HCX并通过点击按钮,就能将vComputeServer以及GPU工作负载,从企业内部移动到公有云上,而当这些应用程序被重新部署,就能使用Nvidia的GPU,执行高性能计算、机器学习、数据分析以及图片处理等应用程序。而这也为用户提供更灵活的选择,可在云计算或是内部进行训练或是推理。

借助AWS云计算平台的优点,VMware Cloud可自动扩展规模,管理员可以根据数据科学家的需求,增加或缩小训练环境。由于Nvidia T4 GPU具有Tensor核心,可以加速深度学习推理工作,而当这些与GPU虚拟化软件vComputeServer结合,企业便可在虚拟化环境中执行GPU加速运算工作负载,不只具有高安全性,也可提高资源利用率,并且还能增加可管理性。