Supermicro推出配备NVIDIA HGX及PCIe型H100 8-GPU系统

Super Micro今天宣布开始出货配备最新NVIDIA HGX H100 8-GPU系统最顶级的全新GPU服务器。Supermicro服务器将最新的NVIDIA L4 Tensor Core GPU集成到从边缘到数据中心的各种应用程序优化服务器中。

Supermicro总裁暨首席执行官Charles Liang表示:“Supermicro提供业界最全面的GPU系统产品组合,包含8U、6U、5U、4U、2U和1U外形尺寸的服务器,以及支持全系列最新NVIDIA H100 GPU的工作站和SuperBlade系统。选择这款最新的NVIDIA HGX H100 Delta-Next服务器,客户将获得比上一代AI训练应用程序提升9倍的性能。我们的GPU服务器采用创新的气流设计,能全面降低风扇转速、噪音和功耗,进而降低总拥有成本 (TCO)。此外,对于正在寻找能符合未来需求的数据中心的客户,我们也为这类客户提供完整的机柜级(rack-scale)液冷选项。”

Supermicro性能最高的新型8U GPU服务器现已大量出货。这款全新Supermicro 8U服务器特别针对AI、DL、ML和HPC工作负载优化,搭载能达到最高GPU到GPU通信的NVIDIA HGX H100 8-GPU,使用速度最快的NVIDIA NVLink 4.0技术、NVSwitch互联,以及NVIDIA Quantum-2 InfiniBand和Spectrum-4以太网络,大幅突破AI的障碍。

此外,Supermicro也提供多种性能优化的GPU服务器配置,包括直连/单根(single-root)/双根(dual-root) CPU到GPU,另外还有前置或后置I/O机型,在标准和OCP DC机柜配置中使用AC与DC电源。Supermicro X13 SuperBlade机箱可在一个8U机箱内放入20个NVIDIA H100 Tensor Core PCIe GPU或40个NVIDIA L40 GPU。 6U机箱则最多可使用10个NVIDIA H100 PCIe GPU或20个NVIDIA L4 Tensor Core GPU。这些新系统提供最佳的加速功能,适合用于执行NVIDIA AI平台软件层NVIDIA AI Enterprise。

这些服务器内置的液冷系统也用于其他许多GPU服务器。此外,Supermicro发布了一款液冷式AI开发系统 (塔式或机架式配置皆可),内置两个CPU和四个NVIDIA A100 Tensor Core GPU,非常适合办公室和家庭办公环境,能部署在部门和企业集群内。

Supermicro系统支持新的NVIDIA L4 GPU,与前几代产品相比,加速和能效均提升数倍。此系统同样适用于企业、云计算和边缘的AI推理、视频流媒体、虚拟工作站和图形应用程序。L4采用NVIDIA的AI平台和全堆栈方法,经过优化调整,适合进行各种AI应用程序的大规模推理,包括推荐、语音型的AI虚拟人物助理、聊天机器人、视觉搜索和客服中心自动化等,能提供最好的个性化体验。L4是适用于主流服务器最高效的NVIDIA加速器,拥有高达4倍的AI性能、更高的能源使用效率,还有超过3倍的视频流媒体容量与效率,因此能支持AV1编码/解码。L4 GPU拥有多样化的推理和可视化功能,加上轻巧、节能、单插槽、薄型、72W的低功耗规格,是包括边缘位置在内全局部署的最佳选择。

NVIDIA加速运算产品主管Dave Salvator表示:“Supermicro服务器配备最新的NVIDIA L4 Tensor Core GPU,拥有无与伦比的强大性能,让客户能高效率且永续地加快工作负载的速度。NVIDIA L4经过优化,适合用于主流部署,加上外形轻薄,可在72W的低功耗范围内作业,将边缘的AI性能和效率提升至新的境界。”

Supermicro最新的PCIe加速解决方案支持打造3D世界、数字双生、3D模拟模型和工业元宇宙。除了支持前几代NVIDIA OVX系统,Supermicro也推出OVX 3.0配置,配备四个NVIDIA L40 GPU、两个NVIDIA ConnectX-7 SmartNIC、一个NVIDIA BlueField-3 DPU及最新的NVIDIA Omniverse Enterprise软件。