产生式AI大爆发,NVIDIA GPU恐供不应求

微软Bing搜索引擎集成ChatGPT,加上其他产生式AI工具的需求攀升,都相当依赖人工智能处理能力,正是NVIDIA GPU优势所在。当科技公司利用NVIDIA GPU满足增长的AI需求,市场恐怕又要面临GPU供货短缺问题,尤其又会先挤压游戏玩家需求。

NVIDIA GPU能高效运算,支持AI模型用GPU运算的CUDA(Compute Unified Device Architecture,统一计算架构),因此广泛应用于深度学习领域。FierceElectronics网站报道,ChatGPT初期在1万个NVIDIA GPU训练,自从获得大众关注后,系统不堪负荷,无法满足庞大用户需求。故OpenAI推出全新ChatGPT Plus订阅服务,不仅能让付费用户尖峰时段优先访问ChatGPT,且回应时间更短,并能先使用最新功能。

产业分析师估计,目前ChatGPT模型在约25,000个NVIDIA GPU训练,比初期测试1万个NVIDIA GPU高许多。

微软和Google双双宣布将类似ChatGPT的LLM(对话式大型语言模型)集成至自家搜索引擎。如Google要将AI模型集成至搜索结果,估计需要512,820台A100 HGX服务器及4,102,568个A100 GPU。光服务器和网络成本,资本支出就高达1,000亿美元左右。

产生式AI大爆发对NVIDIA来说是利多消息,但对消费市场尤其游戏玩家,恐怕不算好消息。NVIDIA有可能优先供货给产生式AI的科技公司,排挤游戏玩家需求。今年第一季因农历新年使游戏显卡供应受限,尽管库存问题仍在,但可能为已短缺的高端GPU增加供货问题。

高端GPU提供AI功能,使NVIDIA有利可图,可能为了满足不断增长的产生式AI而有供货短缺问题。NVIDIA如何应对AI领域庞大需求有待观察,而2月22日其将公布2023财年第四季财报,届时有望透露更多未来运营预期。

(首图来源:shutterstock)