NVIDIA揭开DPU的面纱:驱动数据中心网络运行的引擎

科技圈终于在本周首度揭开NVIDIA BlueField资料处理器的面纱。这款芯片在去年开辟出DPU这个产品类别,而云计算服务、超级计算机及许多OEM企业与软件合作伙伴已纷纷开始采用。

带领以色列BlueField设计团队的首席架构师Idan Burstein,将在Hot Chips大会上介绍DPU的架构。在这场演讲中,将发布一款用于加速现代数据中心的芯片引擎,这款引擎中有着一组硬件加速器与通用Arm核心,可以加快网络、安全性功能及存储工作的运行速度。

这些工作包含虚拟化数据中心的硬件,同时确保网络流量的安全和顺畅,包括在硬件中加速运行数据中心基本任务中不断增加的作业负载,像是:

这些作业负载的增长速度已经超越摩尔定律,占据三分之一的服务器CPU运行周期。DPU将这些专用硬件集成起来,以更高效的方式来运行这些工作,释放出更多CPU核心来处理数据中心的应用。

DPU在不牺牲裸机性能的情况下提供虚拟化和先进的安全功能,它们的应用范畴涵盖云计算、媒体流媒体、存储、边缘处理和高性能计算等多个领域。NVIDIA首席执行官黄仁勋形容DPU为未来运算领域发展的三大支柱之一。CPU用于通用运算、GPU用于加速运算,而DPU则在数据中心内移动资料以进行处理。

在Hot Chips大会中有许多会让处理器架构师着迷不已的芯片细节,对用户来说,好消息是他们不需要精通这些,只要把现有软件安装到熟悉的高端软件接口,就能发挥DPU的优势。这些API被绑定在称作NVIDIA DOCA的DPU软件堆栈里,堆栈里有驱动程序、函数库、工具、文件、应用程序范例及一个runtime环境,以在整个人信息料中心的数千个DPU上配置、部署和调控服务。目前已经有数百个组织向NVIDIA申请DOCA的早期试用。

全球已有多个最大型的云计算环境及一台TOP500排行榜上的超级计算机,采用在Hot Chips大会介绍的架构,并与下一代防火墙进行集成。多个顶尖OEM推出的系统很快也会采用这个架构,和来自超过十家软件合作伙伴的支持。全球多个云计算服务供应商正使用或准备部署BlueField DPU,以安全配置运算执行实例。

剑桥大学利用DPU的效率,于今年六月推出了英国最高速的学术研究超级计算机,它在全球最节能系统的Green500排行榜上位居第三。它是全球第一部云计算原生超级计算机,研究人员可以在不影响性能的情况下,以保有隐私和安全的方式共享虚拟资源。

所有数据中心可以通过Palo Alto Networks的VM-Series新时代防火墙,获得DPU的安全性功能。BlueField-2可以加快VM-Series新时代防火墙的运行速度,检查过去无法检查的网络流量。

DPU很快就会现身在华硕 (ASUS)、源讯 (Atos)、戴尔科技 (Dell Technologies)、富士通 (Fujitsu)、技嘉 (GIGABYTE)、新华三 (H3C)、浪潮(Inspur)、广达 (Quanta)/ 云达 (QCT) 及美超微 (Supermicro) 推出的系统中,其中有部分企业在五月的COMPUTEX大会中宣布了相关计划。

十余家软件合作伙伴将支持NVIDIA BlueField DPU,包括:

其他合作伙伴有Cloudflare、DDN、Excelero、F5、Fortinet、Guardicore、Juniper Networks、NetApp、Vast Data及WekaIO。NVIDIA首席财务官Collette Kress在五月的财报会议上表示:“世界上的每一个网络芯片都将成为智能网络芯片,而这就是所谓的DPU,它是芯片上的数据中心。”他预测日后每台服务器都会搭载一个DPU。

Dell’Oro Group的市场观察员预测,智能网络端口的出货量将增加近一倍,从2020年的440万上升到2025年的740万。NVIDIA为了迎向这股增长动能,在GTC大会上宣布了接下来两代DPU的发展路线图。明年开始送样的BlueField-3,将驱动高达每秒400Gbit的网络,并拥有300个x86核心的运算实力;BlueField-4在加入NVIDIA人工智能 (AI) 运算技术后将能大幅提升性能。