Google发布了适用于Coral板的EfficientNetEdgeTPU分类模型

时间:2021-09-09 07:47:10来源:
导读大家好,我是华夏文化传播网的编辑小林。最近看到网友在搜索谷歌发布适用于珊瑚板的EfficientNetEdgeTPU分类模型的信息。小林还收集了谷歌

音频解说

大家好,我是华夏文化传播网的编辑小林。最近看到网友在搜索谷歌发布适用于珊瑚板的EfficientNetEdgeTPU分类模型的信息。小林还收集了谷歌适用于珊瑚板的有效Netedgetpu分类模型的信息,并与大家分享。以上是小林对所有问题的回答。

谷歌在3月份发布了Coral Dev Board,这是一款搭载Edge TPU AI加速器芯片和USB加密狗的紧凑型PC,旨在现有的树莓Pi和Linux系统(Coral USB Accelerator)上加速机器学习推理。)。此后,工具包支持资源的更新达到了稳定的水平。今天,谷歌发布了一个新的分类模型系列——EfficientNet-EdgeTPU,据说是经过优化的,可以在Coral board的模块化系统上运行。

GitHub提供了efficant net-edge TPU的训练代码和预训练模型。

机器加速器架构师苏约格古普塔(Suyog Gupta)和谷歌研究公司(Google Research)的软件工程师写道:“随着缩小晶体管尺寸的难度越来越大,业界重新聚焦于开发特定领域的架构(如硬件加速器),以继续提高计算能力。”谭明兴“具有讽刺意味的是,尽管这些架构在数据中心和边缘计算平台中稳步增长,但运行在这些平台上的[AI模型]很少进行定制,以利用基本硬件。”

因此,高效网-EdgeTPU项目的目标是定制源自谷歌高效网的模型,以适应节能低成本的EdgeTPU芯片。在之前的测试中,高效网在现有人工智能系统的某些类别中展示了更高的准确性和更高的效率,从而将参数大小和FLOPS减少了一个数量级。

这是因为在固定资源的约束下,EfficientNets使用网格搜索来确定基准AI模型的缩放维度之间的关系。为每个维度搜索适当的缩放因子,然后应用这些因子将基线模型缩放到所需的模型大小或计算预算。

根据古普塔、谭和他的同事的说法,重新配置高效网络以利用Edge,需要调用谷歌开发的AutoML框架。MNAS通过结合强化学习来考虑硬件限制(尤其是片上存储器),然后在选择作物精华之前,通过执行各种模型并测量它们的实际性能,从候选列表中确定理想的模型架构。该团队补充了一个等待时间预测模块,该模块提供了算法在边缘TPU上执行时的等待时间估计。

整个方法产生了一个基线模型——efficient net-EdgeTPU-S,研究人员通过选择输入图像分辨率缩放、网络宽度和深度缩放的最佳组合来放大。在实验中,与流行的图像分类模型(如initiation-resnet-v2和Resnet50)相比,所得到的更大的架构EfficientNet-EdgeTPU-M和EfficientNet-EdgeTPU-L以增加延迟为代价实现了更高的精度,并且在EdgeTPU上运行得更快。

EfficientNet-EdgeTPU发布了谷歌的模型优化工具包TensorFlow的工具包,其中包括混合量化、综合整数量化以及前一天首次亮相后的剪枝。值得注意的是,经过训练后,float16量化可以将AI模型的大小减少多达50%,同时降低准确率。

本文就为大家讲解到这里。
标签: