Tengine 一个注重性能和兼容性的AI框架

前段时间,Tensorflow官方提供的本地编译的方式在Arm嵌入式设备运行Tensorflow Lite,我在11月中旬,使用本地编译的方式编译二进制的Label_image, 对RK3288 以及树莓派上做了性能的测试。

<figure>A17与A53 MobilenNet V1(fp) 性能对比<figcaption>A17与A53 MobilenNet V1(fp) 性能对比</figcaption></figure>

 

今天我想介绍一个我新发现并让我眼前一亮的框架Tengine.

Tengine 显著的优点是性能和兼容性,使用Tengine框架后运行性能可以得到大幅度的提升。

下图为MobileNet V1_1.0_224 浮点型模型单张图片分类在单核A53的性能对比。我们可以看到Tengine 有显著的优势。

<figure>MobileNet V1_1.0_224 浮点型模型单张图片分类在单核A53的性能对比<figcaption>MobileNet V1_1.0_224 浮点型模型单张图片分类在单核A53的性能对比</figcaption></figure>

 

Tengine 框架有着非常好的模型兼容性,支持直接加载caffe/mxnet/tensorflow模型文件,而不需要事先转换,而且用户仅需编译就可以利用Tengine的加速Caffe和Tensorflow性能。

Tengine 不仅可以让分类网络的性能大大提升,连大家众所周知的MobileNet-SSD 网络也能提升它的性能。很多人都觉得树莓派的性能不足以hold住检测网络,但是如果用Tengine框架就可以做到。

即使是开源版是每一帧的检测耗时仅为 286.136ms,足以看出Tengine的性能非常强大。

<figure>开源版上每一帧的检测耗时仅为 286.136ms<figcaption>开源版上每一帧的检测耗时仅为 286.136ms</figcaption></figure>

 

<figure>GPU用半浮点精度float16的检测结果准确无误<figcaption>GPU用半浮点精度float16的检测结果准确无误</figcaption></figure>

 

有兴趣的朋友可以看一下Tengine GitHub的主页,最近还推出了跑MobileNet分类网络的Android App, 手机端就可以使用AI 程序。

https://github.com/OAID/Tengine/?csdn010701

https://github.com/OAID/Tengine-app/?csdn010701

0 个评论

要回复文章请先登录注册