NVIDIA推出Magnum IO套装软件,协助数据科学家及AI和高性能计算研究人员消除数据瓶颈

NVIDIA(英伟达)19日宣布推出NVIDIA Magnum IO软件,可以协助数据科学家、AI与高性能计算研究人员在几分钟而非几小时内处理大量数据。

经过优化后的Magnum IO能够排除存储及输入/ 输出的瓶颈,在执行如财务分析、创建气候模型与其他高性能计算作业时,可针对多服务器与多GPU节点提供高达20倍的数据处理性能。

NVIDIA与网络及存储领域的顶尖企业密切合作,包括DataDirect Networks、Excelero、IBM、Mellanox和WekaIO,并肩开发出Magnum IO。

NVIDIA创办人暨首席执行官黄仁勋表示:“处理大量收集或仿真的数据,是AI这般由数据带动之科学研究领域的核心。随着数据的规模和出现速度呈现指数级增长,数据中心所面临的巨大挑战和成本考量就是数据处理。极致的运算需要有极致的输入/ 输出功能,而Magnum IO将颠覆运算领域的NVIDIA GPU加速技术用在输入/ 输出功能和存储设备上,做到了这一点。如今AI研究人员与数据科学家不用再等待数据,反而能专心在他们的研究工作上。”

Magnum IO的核心是GPUDirect,数据可以借此绕过CPU,在GPU、存储设备和网络设备提供的“开放高速公路”上进行传输。由点对点及远程直接内存访问(RDMA)组成的GPUDirect,与众多传输互连及API皆兼容,其中包括NVIDIA NVLink、NCCL、OpenMPI及UCX。

其最新元素是GPUDirect Storage,让研究人员在访问存储设备之际可以绕过CPU,并且快速取得数据文件来进行仿真、分析或可视化等作业。

NVIDIA Magnum IO软件现已上市,而特定早鸟计划的客户现已可取得尚未上市的GPUDirect Storage。NVIDIA计划在2020年上半年让更多客户接触到GPUDirect Storage。