Google推出EfficientNet-EdgeTPU算法,加快AI边缘设备性能

EfficientNet-EdgeTPU是针对Coral Dev Board、Tinker Edge T等搭载Edge TPU张量处理器进行优化的算法,它能提升神经网络运算性能达10倍之谱,对于运算能量有限的边缘设备来说,是相当重要的突破,并能带来更多应用的可能性。

摩尔定律(Moore’s law)由Intel创始人之一戈登•莫耳提出,他预测每隔2年集成电路上可容纳的晶体管数目会增加1倍,在过去的数十年间,计算机的发展都相当契合这条定律。

而Google在官方AI研究博客提到,在半导体制成越来越精进之后,要进一步缩小晶体管的尺寸比以往更加困难,因此信息产业便逐渐将开发焦点转移到硬件加速等特殊应用领域,以持续推进产业发展。

这个现象也发生在AI、机器学习领域,许多研发单位都在致力打造神经网络(Neural Network,NN)的加速运算单元,但是讽刺的是,即便应用于数据中心或边缘设备的神经运算设备越来越普遍,但却很少有为这些硬件优化的算法。

为了解决这个问题,Google发布了EfficientNet-EdgeTPU图片分类演算模型,顾名思义可以猜到它以Google自家的开源EfficientNets模型为基础,并针对Edge TPU进行优化,以便提升边缘设备在AI运算上的性能表现。

为了要将EfficientNets优化,Google的研发团队使用了AutoML MNAS框架,并针对Edge TPU的特性调整神经网络的搜索空间(Search Space),同时也集成延迟预测模块,以便预估Edge TPU的运算延迟。

在执行运算的过程中,EfficientNets主要采用深度可分离卷积(Depthwise-Separable Convolutions),虽然可以降低运算量,但并不适合Edge TPU的架构,因此EfficientNet-EdgeTPU改采一般常规的卷积,虽然会让运算量增加,但还是有较好的整体运算性能。

在实际验证的测试中,EfficientNet-EdgeTPU-S代表基本模型,而-M和-L模型则代先采用复合缩放将原始图像调整为最加分辨率,在以更大、更准确的模型进行判读,牺牲延迟换取更高的准确度。而在结果报告中,无论使用哪款模型,在性能与准确度都有出色的表现,性能大幅领先ResNet-50,准确度也远高于MobileNet V2。

Edge TPU原本就是电力效率相当好的运算单元,在EfficientNet-EdgeTPU的加持下,甚至可以完成原本需要更高端计算机才能负荷的即时图片识别、分类,让边缘运算有更多可能性。