NVIDIA发布Magnum IO,让GPU直接访问内存,强化AI超级计算机性能表现

继先前NVIDIA发布将CUDA带来Arm架构处理器的超级计算机后,在2019年Supercomputing超级运算大会上,发布了能让绘图处理器绕过处理器,直接访问内存数据的Magnum IO软件组件,能够有效降低运算过程中的延迟,大幅提升整体性能表现。

由于AI运算与一般运算的特性有所不同,所以往往对绘图处理器(GPU)的资源需求高于处理器(CPU),而且需要运算过程需要访问大量数据,造成构建计算机时所需要的绘图处理器数量会高于处理器,且许多运算时间会浪费在绘图处理器访问内存的延迟。

先前NVIDIA在2019年国际超级运算大会(International Supercomputing Conference)发布了CUDA on Arm,让采用Arm架构处理器构建的超级计算机也能使用NVIDIA绘图处理器进行高性能计算(High Performance Computing,以下简称HPC),并预计在2019年底达到支持600款HPC运算软件与全部AI框架的目标,其中也支持NVIDIA的CUDA-X AI与HPC函数库。

如此一来无论处理器的架构为Arm、Power、x86的计算机,都能通过NVIDIA绘图处理器为AI运算加速,让用户可以选择适合自身使用场景的处理器,例如利用Arm架构处理器追求更高的电力效率。

而在2019年Supercomputing超级运算大会上,NVIDIA进一步宣布Magnum IO软件组件,可以通过优化方式消除存储、I/O造成的性能瓶颈。根据官方提供的说明,能提升多服务器、多绘图处理器的运算节点在处理复杂金融分析、气候预测时长据处理性能达20倍之谱,让数据科学家与AI、HPC研究员在数分钟内完成原本需要花费数小时的工作。

企业除了可以自行架设服务器外,Microsoft全新的Azure NDv2系列虚拟机最多能在单个Mellanox InfiniBand后端网络提供高达800个的NVIDIA Tesla V100绘图处理器,加快企业部署AI运算的速度。

如此一来企业只需在自己的办公室租用虚拟机,并在短短几个小时内完成过去需要花费数月的AI运算超级计算机部署工作,大大降低时间成本。

对此NVIDIA副总裁兼加速运算总经理Ian Buck说:“相较于先前只有世界级的大企业与组织能拥有AI与HPC运算的超级计算机,但Microsoft Azure新产品的催化让AI变的更加民主化(Microsoft Azure’s new offering democratizes AI),让人们能有更多任务具能解决各项重大挑战。”