Red Hat携手NVIDIA高效扩展企业AI工作负载

Red Hat宣布OpenShift的新认证及功能,加速交付跨混合云智能应用程序。这些强化功能包括NVIDIA AI Enterprise 2.0支持的Red Hat OpenShift认证,以及全面推出的Red Hat OpenShift 4.10,皆可协助企业有效部署、管理和扩展AI工作负载。

为加速企业导入AI,Red Hat OpenShift现已获得NVIDIA AI Enterprise 2.0软件组件认证与支持,可在主流NVIDIA认证系统中执行。集成后的平台将提供NVIDIA旗舰级AI软件—NVIDIA AI Enterprise软件组件,为运行的Red Hat OpenShift进行优化。借由NVIDIA AI Enterprise on Red Hat OpenShift,数据科学家和开发人员可以更快速的训练模型,并将其纳入应用程序及进行大规模部署。

客户目前可以在NVIDIA Enterprise AI软件所支持的NVIDIA认证系统上部署Red Hat OpenShift,或可以选择先前支持且针对AI工作负载推出的通用高性能计算系统NVIDIA DGX A100,以集成和加速MLOps生命周期,将资料工程、分析、培训、软件开发和推理(inference)等功能纳入统一且易于部署的AI基础架构。此外,Red Hat OpenShift中集成的DevOps和GitOps功能可以协助MLOps加速AI驱动应用程序持续交付。

Red Hat OpenShift 4.10持续扩展平台,以支持跨开放式混合云的各类云原生工作负载,企业可借此在更多环境中执行AI/ML工作负载。最新版本的OpenShift添加针对其他公有云和硬件架构的支持,尽可能让开发过程简单一致,让企业能弹性选择执行应用程序的场景。可加速AI/ML工作负载的新功能如下:

为协助用户支持监管标准执行计划,Red Hat OpenShift 4.10加入三项全新合规控制机制(compliance operator),让用户能够检查集群的合规性并修复已发现的问题:

此外,Red Hat OpenShift 4.10也包含全面推出的沙盒容器,可提供工作负载额外的资源隔离层,以符合严谨的应用层安全要求。针对连接中断或气隙(air-gapped)设置,OpenShift也改善对应功能,进而简化中断连接的OpenShift集群安装过程。如此一来可以减少OpenShift镜像文件镜射(mirrors)维护的复杂性,使其如同连接集群一样保持最新状态。