TensorRTX 推演

文章目录[隐藏]


前言

在github上下载到yolov5的第5版及其对应的tensorRTX版本,在目标硬件平台进行部署推演。

GitHub上tensorRTX步骤

(1)下载好tensorrtx中yolov5文件中gen_wts.复制到训练yolov5模型文件下,执行:
python gen_wts.py -w yolov5s.pt -o yolov5s.wts -w 训练好模型(pt) -o 转为需要wts格式(输出)
(2)在tensorrtx的yolov5中yololayer.h进行设置检测目标的类别数量:
static constexpr int CLASS_NUM = 2;修改成自己的模型。
(3)编译及构建项目,在yolov5文件下执行:

mkdir build
cd build
cmake ..
make

构建好后,将转化后的wts文件复制到bulid中,再执行

sudo ./yolov5 -s [.wts] [.engine] [s/m/l/x/s6/m6/l6/x6 or c/c6 gd gw]  // serialize model to plan file
sudo ./yolov5 -d [.engine] [image folder]  // deserialize and run inference, the images in [image folder] will be processed.
// example
sudo ./yolov5 -s yolov5s.wts yolov5s.engine s
sudo ./yolov5 -d yolov5s.engine ../samples
// 裁剪举例
sudo ./yolov5 -s yolov5_custom.wts yolov5.engine c 0.17 0.25
sudo ./yolov5 -d yolov5.engine ../samples

后续

wts文件为裁剪后模型,而engine为tensorRT 推演,后续将进行目标的类别显示及视频的检测及实时检测。

版权声明:本文为CSDN博主「片刻荒凉」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/qq_33841237/article/details/120956839

片刻荒凉

我还没有学会写个人说明!

暂无评论

发表评论

相关推荐

【原理篇】一文读懂Mask RCNN

Mask RCNN 何凯明大神的经典论文之一,是一个实例分割算法,正如文中所说,Mask RCNN是一个简单、灵活、通用的框架,该框架主要作用是实例分割,目标检测&#xff0

YOLO-V3-SPP详细解析

YOLO-V3-SPP 继前两篇简单的YOLO博文 YOLO-V1 论文理解《You Only Look Once: Unified, Real-Time Object Detection》YOLO-V2论文理解《YOLO9000: Bet