Supermicro扩大最广泛的AI GPU服务器产品组合

Super Micro今日宣布扩大最广泛的AI GPU服务器产品组合,此系列集成了最新的NVIDIA Ampere系列GPU,包括NVIDIA A100、A30和A2。

Supermicro最新的NVIDIA认证系统提供比前几代产品高十倍的AI推理性能,确保支持AI的应用程序,例如图片分类、物体侦测、强化学习、推荐、自然语言处理 (NLP)、自动语音识别 (ASR),能大幅降低成本。除了推理,Supermicro高性能的A100 HGX 8-GPU和4-GPU服务器相比于前几代系统,在大数据分析方面的AI训练速度提高了三倍,性能提高了八倍。

Supermicro总裁暨首席执行官Charles Liang表示:“Supermicro持续引领GPU市场,拥有最广泛的系统组合,针对从边缘到云计算的任何工作负载优化。我们的云计算游戏全面性解决方案在一个2U 2节点系统中提供多达12个单宽度GPU,可实现卓越的密度和效率。此外,Supermicro也推出全新的通用GPU平台,将所有主要的CPU、GPU,以及结构和散热解决方案集成在一起。”

Supermicro E-403服务器为分布式AI推理应用的理想选择,适合用在交通控制和办公大楼环境条件等。Supermicro Hyper-E边缘服务器每个系统有多达三个A100 GPU,能为边缘应用带来前所没有的推理能力。Supermicro现在提供完整的IT解决方案,可加速工程和设计专业人员之间的协作,解决方案中包含了NVIDIA认证的服务器、存储设备、网络交换机,和用于专业级可视化和协作的NVIDIA Enterprise Omniverse软件。

NVIDIA加速运算部总经理暨副总裁Ian Buck表示:“Supermicro广泛的NVIDIA认证系统由采用NVIDIA Ampere架构的完整GPU产品组合提供支持。Supermicro的客户可从中获得卓越性能,应用于各种类型的现代化AI工作流程 – 包括从边缘的推理,到云计算的高性能计算,还有两者之间的一切应用。”

率先上市的是Supermicro性能强大的数据中心2U和4U GPU (Redstone、Delta) 系统,支持全新的Quantum-2 InfiniBand产品系列和BlueField DPU。NVIDIA Quantum-2 InfiniBand解决方案包括高带宽、超低延迟转接器、交换机和电缆,以及能为数据中心带来最高性能的完整软件,整个Supermicro产品系列都将搭载这些软件。

与上一代InfiniBand通信转接器和交换机相比,采用Quantum-2 InfiniBand的系统提供400 Gb/s的传输速率、每连接端口高2倍的带宽、更高的交换机密度,和每交换机高32倍的AI加速,且能同时支持Intel或AMD处理器。

随着混合式工作环境成为常态,产业需要新技术来确保人力的技术平等。NVIDIA的Omniverse Enterprise和Supermicro GPU服务器的组合,将彻底颠覆复杂的3D工作流程,让各种创新产品能无限迭代,同时加快产品的上市时间。此外,NVIDIA的Omniverse Enterprise,以及用于将AI集成到其企业工作流程中的AI Enterprise on VMware已针对Supermicro的NVIDIA认证系统进行了优化和测试,即使地理位置分散的团队也能无缝协作。