TensorRTX 推演

文章目录[隐藏]


前言

在github上下载到yolov5的第5版及其对应的tensorRTX版本,在目标硬件平台进行部署推演。

GitHub上tensorRTX步骤

(1)下载好tensorrtx中yolov5文件中gen_wts.复制到训练yolov5模型文件下,执行:
python gen_wts.py -w yolov5s.pt -o yolov5s.wts -w 训练好模型(pt) -o 转为需要wts格式(输出)
(2)在tensorrtx的yolov5中yololayer.h进行设置检测目标的类别数量:
static constexpr int CLASS_NUM = 2;修改成自己的模型。
(3)编译及构建项目,在yolov5文件下执行:

mkdir build
cd build
cmake ..
make

构建好后,将转化后的wts文件复制到bulid中,再执行

sudo ./yolov5 -s [.wts] [.engine] [s/m/l/x/s6/m6/l6/x6 or c/c6 gd gw]  // serialize model to plan file
sudo ./yolov5 -d [.engine] [image folder]  // deserialize and run inference, the images in [image folder] will be processed.
// example
sudo ./yolov5 -s yolov5s.wts yolov5s.engine s
sudo ./yolov5 -d yolov5s.engine ../samples
// 裁剪举例
sudo ./yolov5 -s yolov5_custom.wts yolov5.engine c 0.17 0.25
sudo ./yolov5 -d yolov5.engine ../samples

后续

wts文件为裁剪后模型,而engine为tensorRT 推演,后续将进行目标的类别显示及视频的检测及实时检测。

版权声明:本文为CSDN博主「片刻荒凉」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/qq_33841237/article/details/120956839

片刻荒凉

我还没有学会写个人说明!

暂无评论

发表评论

相关推荐

CVPR2021: Sparse R-CNN新的目标检测模型

今天我们将讨论由四个机构的研究人员提出的一种方法,其中一个是字节跳动人工智能实验室。他们为我们提供了一种新的方法,称为稀疏R-CNN(不要与 Sparse R-CNN 混淆,后者在 3D 计算机视觉任务

实战深度学习目标检测:RCNN (1)

深度学习目标检测:RCNN 什么是目标检测?目标检测主要是明确从图中看到了什么物体?他们在什么位置。传统的目标检测方法一般分为三个阶段:首先在给定的图像上选择一些候选的区域&#xff0c