TensorRTX 推演

文章目录[隐藏]


前言

在github上下载到yolov5的第5版及其对应的tensorRTX版本,在目标硬件平台进行部署推演。

GitHub上tensorRTX步骤

(1)下载好tensorrtx中yolov5文件中gen_wts.复制到训练yolov5模型文件下,执行:
python gen_wts.py -w yolov5s.pt -o yolov5s.wts -w 训练好模型(pt) -o 转为需要wts格式(输出)
(2)在tensorrtx的yolov5中yololayer.h进行设置检测目标的类别数量:
static constexpr int CLASS_NUM = 2;修改成自己的模型。
(3)编译及构建项目,在yolov5文件下执行:

mkdir build
cd build
cmake ..
make

构建好后,将转化后的wts文件复制到bulid中,再执行

sudo ./yolov5 -s [.wts] [.engine] [s/m/l/x/s6/m6/l6/x6 or c/c6 gd gw]  // serialize model to plan file
sudo ./yolov5 -d [.engine] [image folder]  // deserialize and run inference, the images in [image folder] will be processed.
// example
sudo ./yolov5 -s yolov5s.wts yolov5s.engine s
sudo ./yolov5 -d yolov5s.engine ../samples
// 裁剪举例
sudo ./yolov5 -s yolov5_custom.wts yolov5.engine c 0.17 0.25
sudo ./yolov5 -d yolov5.engine ../samples

后续

wts文件为裁剪后模型,而engine为tensorRT 推演,后续将进行目标的类别显示及视频的检测及实时检测。

版权声明:本文为CSDN博主「片刻荒凉」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/qq_33841237/article/details/120956839

片刻荒凉

我还没有学会写个人说明!

暂无评论

发表评论

相关推荐

yolo-fastest模型

两个关于yolo-fastest的资料 https://github.com/dog-qiuqiu/Yolo-FastestV2/ https://github.com/dog-qiuqiu/Yolo-Fastest

手把手教你实现YOLOv3 (一)

1. 引言 最近整理了YOLO系列相关论文阅读笔记,发现仅仅靠阅读论文还是有很多内容一知半解,吃得不是很透彻. 尽管网络上有很多博客都在讲解,但是很多实现细节细究起来还是有些困难. 俗话说的好: Talk is cheap. Show me

目标检测入坑指南3:VGGNet神经网络

学了蛮久的目标检测了,但是有好多细节总是忘或者模棱两可,感觉有必要写博客记录一下学习笔记和一些心得,既可以加深印象又可以方便他人。博客内容集成自各大学习资源,所以图片也就不加水印了&#xf

Yolov3代码实现

voc数据集构建文件 import sys import xml.etree.ElementTree as ET import config.yolov3_config_voc as cfg import os from tqdm impor