树莓派部署yolo fastest ncnn记录

成功跑通写的总结

部署环境
1.ubuntu18
2.opencv4.5.1
3.树莓派4b

一、编译ncnn
1.ncnn环境配置

sudo apt-get install -y gfortran
sudo apt-get install -y libprotobuf-dev libleveldb-dev libsnappy-dev libopencv-dev libhdf5-serial-dev protobuf-compiler
sudo apt-get install --no-install-recommends libboost-all-dev
sudo apt-get install -y libgflags-dev libgoogle-glog-dev liblmdb-dev libatlas-base-dev

2.获取ncnn代码

git clone https://github.com/Tencent/ncnn
cd ncnn

3.编译
在ncnn目录下

mkdir build
cd build
cmake ../
make -j4
make install 

在build目录下会出现三个文件夹。examples install tools,至此第一步ncnn编译成功。
接下来可以使用ncnn进行文件转换了!

二、文件转化测试

1.下载.cfg和.weights文件。(任何版本的都可以,我用的是yolo-fastest-xl,可私信我,发给你)
文件链接: https://download.csdn.net/download/weixin_43096365/81557457

2.生成目标文件

1).在ncnn根目录下新建一个Model文件夹,将yolo-fastest-xl.cfg和yolo-fastest-xlweights文件拷贝到该文件夹中。
2).在ncnn/build/tools/darknet路径下打开终端,输入:

./darknet2ncnn ../../../Model/yolo-fastest-xl.cfg ../../../Model/yolo-fastest-xl.weights ../../../Model/yolo-fastest-xl.param ../../../Model/yolo-fastest-xl.bin

将会在Model文件夹中生成yolov4.param 和yolov4.bin文件

看到Model文件夹里有 bin文件 和 param文件 就是成功了!第二步搞定。

三、运行

1.新建一个文件夹yolo-fastest-ncnn
2.复制文件

         1.将yolo-fastest-xl.param和yolo-fastest-xl.bin文件拷贝到yolo-fastest-ncnn/model下。
         
         2.并将ncnn/build/install文件拷贝到yolo-fastest-ncnn下。**注意是复制install文件夹下的文件夹,不是直接复制install文件夹。**
         
         3.把 dog-qiuqiu / Yolo-Fastest /sample/ncnn文件夹下的除了model文件夹,都拷贝到yolo-fastest-ncnn/mode
         		网址链接::  https://gitcode.net/mirrors/dog-qiuqiu/Yolo-Fastest/-/tree/master/sample/ncnn

在这里插入图片描述

3.修改代码
打开demo文件

int testCam() {
    YoloDet api;
    //Init model
    api.init("model/yolo-fastest-xl.param", 
              "model/yolo-fastest-xl.bin");

看自己的文件路径,这里的model是在 yolo-fastest-ncnn夹下面建的子文件夹

4.测试

1.在yolo-fastest-ncnn文件夹下打开终端,输入

sh build.sh

2.继续终端输入

./demo

到这里就能够把程序在树莓派上拍起来,ubuntu上也可以;
但是,会发现,速度特别慢;

四:优化

1.转化模型:

 [优化文件模型](https://blog.csdn.net/weixin_43096365/article/details/123001666)

2.添加与修改代码

在src文件下修改:

在这里插入图片描述
2.1根据自己树莓派的核数,配置运行线程数。
在这里插入图片描述
2.2为了提升在树莓派上模型推理速度,NCNN模型尽量用FP16模型,然后模型初始化时,开启FP16模 型加速
在这里插入图片描述

版权声明:本文为CSDN博主「盗盛哈哈」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/weixin_43096365/article/details/123027424

盗盛哈哈

我还没有学会写个人说明!

暂无评论

发表评论

相关推荐