Tengine 一个注重性能和兼容性的AI框架
前段时间,Tensorflow官方提供的本地编译的方式在Arm嵌入式设备运行Tensorflow Lite,我在11月中旬,使用本地编译的方式编译二进制的Label_image, 对RK3288 以及树莓派上做了性能的测试。
<figure><figcaption>A17与A53 MobilenNet V1(fp) 性能对比</figcaption></figure>
今天我想介绍一个我新发现并让我眼前一亮的框架Tengine.
Tengine 显著的优点是性能和兼容性,使用Tengine框架后运行性能可以得到大幅度的提升。
下图为MobileNet V1_1.0_224 浮点型模型单张图片分类在单核A53的性能对比。我们可以看到Tengine 有显著的优势。
<figure><figcaption>MobileNet V1_1.0_224 浮点型模型单张图片分类在单核A53的性能对比</figcaption></figure>
Tengine 框架有着非常好的模型兼容性,支持直接加载caffe/mxnet/tensorflow模型文件,而不需要事先转换,而且用户仅需编译就可以利用Tengine的加速Caffe和Tensorflow性能。
Tengine 不仅可以让分类网络的性能大大提升,连大家众所周知的MobileNet-SSD 网络也能提升它的性能。很多人都觉得树莓派的性能不足以hold住检测网络,但是如果用Tengine框架就可以做到。
即使是开源版是每一帧的检测耗时仅为 286.136ms,足以看出Tengine的性能非常强大。
<figure><figcaption>开源版上每一帧的检测耗时仅为 286.136ms</figcaption></figure>
<figure><figcaption>GPU用半浮点精度float16的检测结果准确无误</figcaption></figure>
有兴趣的朋友可以看一下Tengine GitHub的主页,最近还推出了跑MobileNet分类网络的Android App, 手机端就可以使用AI 程序。
https://github.com/OAID/Tengine/?csdn010701
https://github.com/OAID/Tengine-app/?csdn010701