卓强芯视野: 米尔入门级i.MX6UL开发板的神经网络框架ncnn移植与测试

1年前 223观看
米尔MYD-Y6ULX-V2开发板,基于
NXPi.MX6UL/i.MX6ULL处理器,该开发板被米尔称之为经典王牌产品。本次测试目标是在此开发板上进行神经网络框架ncnn的移植与测试开发,测试ncnn在此开发板上的性能与应用测试。



ncnn是腾讯优图推出的在手机端极致优化的高性能神经网络前向计算框架。也能够在移动设备上的高性能神经网络前向计算框架。ncnn从设计之初深刻考虑移动端的部署和使用。无第三方依赖,跨平台,其中手机端cpu的速度快于目前所有已知的开源框架。基于ncnn,能够将深度学习算法轻松移植到手机端和移动设备上高效执行,开发人工智能应用。以腾讯内部应用为例,ncnn目前已在QQ,Qzone,微信,天天P图等上得到应用。ncnn支持大部分常用的CNN网络:ClassicalCNN:VGGAlexNetGoogleNetInception…PracticalCNN:ResNetDenseNetSENetFPN…Light-weightCNN:SqueezeNetMobileNetV1/V2/V3ShuffleNetV1/V2MNasNet…Detection:MTCNNfacedetection…Detection:VGG-SSDMobileNet-SSDSqueezeNet-SSDMobileNetV2-SSDLite…Detection:Faster-RCNNR-FCN…Detection:YOLOV2YOLOV3MobileNet-YOLOV3…Segmentation:FCNPSPNetUNet…腾讯优图实验室是主要研究计算机视觉技术,ncnn的许多应用方向也都在图像方面,如人像自动美颜,照片风格化,超分辨率,物体识别。腾讯优图ncnn提供的资料显示:对比目前已知的同类框架,ncnn是cpu框架中最快的,安装包体积最小,跨平台兼容性中也是最好的。以苹果主推的CoreML为例,CoreML是苹果主推的iOSgpu计算框架,速度非常快,但仅支持iOS11以上的iphone手机受众太狭窄。非开源也导致开发者无法自主扩展功能。



ncnn支持卷积神经网络,支持多输入和多分支结构,可计算部分分支无任何第三方库依赖,不依赖BLAS/NNPACK等计算框架纯C++实现,跨平台,支持androidios等ARMNEON汇编级良心优化,计算速度极快精细的内存管理和数据结构设计,内存占用极低支持多核并行计算加速,ARMbig.LITTLEcpu调度优化。支持基于全新低消耗的vulkanapiGPU加速整体库体积小于700K,并可轻松精简到小于300K可扩展的模型设计,支持8bit量化和半精度浮点存储,可导入caffe/pytorch/mxnet/onnx模型支持直接内存零拷贝引用加载网络模型可注册自定义层实现并扩展。
卓强芯视野: 米尔入门级i.MX6UL开发板的神经网络框架ncnn移植与测试

本文链接:http://www.mocany.com/showinfo-1-18508-0.html卓强芯视野: 米尔入门级i.MX6UL开发板的神经网络框架ncnn移植与测试

声明:本网页内容旨在传播知识,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。邮件:2376512515@qq.com。天上从来不会掉馅饼,请大家时刻谨防诈骗