Google正式集成Kubernetes引擎与GPU服务

近日Google云计算服务加强许多深度学习、机器学习应用相关的功能,先是扩展虚拟主机硬件规格,推出主打大内存容量的ultramem规格VM,让用户能进行高性能计算,同时,公有云平台的先占式GPU、TPU也在近日陆续上线,企业可以花费比随需服务更便宜的价格,使用GPU、TPU资源。而这一次Google则是宣布,公有云GPU服务现在正式与Kubernetes引擎(GKE)集成。

目前GCP旗下的GPU硬件共有3种选择,从价格较入门等级的K80,至中端P100及高端V100,让用户可以按需选择。想要使用新功能的用户,现在Google也有提供300美元免费试用额度。

这次发布后,企业在GKE环境中运行的容器应用程序,便可以搭配GPU服务,执行CUDA工作负载,“可以借力GPU大量处理能力,同时免去管理VM的工作”,Google表示,此服务也可以搭配日前正式上线的先占式GPU服务使用,降低企业进行机器学习运算的成本。现在此功能,也已经和Google云计算监控服务Stackdriver集成,用户可以观察,现在GPU资源的访问频率、GPU资源的可用量,或者GPU的配置状况。

此外,在Kubernetes环境中使用GPU服务的企业,也可以一并使用Google Kubernetes引擎的一些现有功能。像是搭配Node资源池功能,让现有Kubernetes集群上的应用程序可以访问GPU资源。当企业应用规模弹性改变时,则可以选用集群扩展功能,系统可以自动扩展内置GPU的节点,当基础架构中没有任何Pod需要访问GPU资源时,系统就会自动关闭这些扩展节点,GKE也会确保节点上的Pod,都是需要访问GPU资源的Pod,避免没有GPU需求的Pod被部署至这些节点运行。而系统管理员可以利用资源配额功能,当多个团队共享大规模集群时,限制各用户能访问的GPU资源。

现在此功能,也已经和Google云计算监控服务Stackdriver集成,用户可以观察,现在GPU资源的访问频率、GPU资源的可用量,或者GPU的配置状况。图片来源:Google