Nvidia锁定边缘入门级AI应用发布Jetson Orin Nano系统模块

Nvidia发布新的高性能系统模块(SOM)系列Jetson Orin Nano,该系列针对人工智能应用,提供高于上一代Jetson Nano 80倍的人工智能运算性能。在最新的Jetson系列产品发布后,该产品线现在支持各种边缘人工智能应用的性能需求,从入门级的Jetson Orin Nano,到最高性能Jetson AGX Orin,供用户按需求扩展其应用程序。

Nvidia提到,各产业对于即时处理能力需求增加,包括智能相机、手持设备、服务机器人、无人机以及各种入门级人工智能应用,而这些应用面临类似的挑战,那便是这些需要在设备上,低延迟处理来自各种传感器工作管线的资料,同时还要节能、成本优化,更要符合小尺寸的限制。

Jetson Orin使用Nvidia Ampere架构GPU以及Arm CPU,并且配备深度学习和视觉加速器,同时也支持高速接口、高内存带宽以及多模传感器,使其能够用来执行人工智能应用程序,甚至是智能机器人操作系统。

Orin Nano模块有两个版本分别是8GB以及4GB,前者能以7W到15W的功率,提供40 TOPS运算能力,而4GB版本功率则可以低至5W到10W,提供20 TOPS运算能力。

由于Jetson AGX Orin开发人员组件和所有Jetson Orin模块,共享同一个SoC架构,因此开发人员组件可以模拟任何模块,在开发者还没实际拿到Jetson Orin Nano硬件之前,就能着手开发工作。Nvidia所发布新的程序覆盖(Overlay),让开发者能够使用开发工具包模拟Jetson Orin Nano模块,并且配置成适用于8GB或是4GB的开发工具包,开发并且执行完整的应用程序工具管线。

Jetson可以执行Nvidia人工智能软件堆栈,以及特定用例的应用程序框架,像是用于机器人开发的Isaac、计算机视觉DeepStream,或是对话人工智能Riva,开发者也可以使用Omniverse Replicator来生成合成资料,并使用TAO工具包微调预训练的模型,增加Jetson上人工智能应用开发速度。

官方提到,与前一代只能执行简单应用程序的Jetson Nano不同,Jetson Orin Nano能够处理复杂应用,并且随着Isaac机器人操作系统的发展,获得更高的准确性和吞吐量。