Ubuntu下利用TensorRT推理DBNet


前言

最近,在项目中需要用到DBNet,为了达到实时性,故想TensorRT来进行推理加速。


一、准备工作

1.代码下载

pytorch版的DBNet下载:DBNet(Windows下使用TensorRT也可以参考)
对应的TensorRT编译代码:TensorRTX

2.环境搭建

所需依赖项参考原先的DBNet的requirement.txt:这里
可以将这个requirements.txt内容复制一份,然后我们的python环境中执行以下操作:

pip install -r requirement.txt

二、模型准备

1、训练自己的模型

  根据pytorch版的DBNet里的README.md来进行数据集的准备和自己模型的训练。
  需要注意的是,这里用的预训练模型是你选用的主干网络的模型,在代码中会自动下载。嫌弃慢的话,可以提前下在好,然后放到指定路径下即可。

2.模型转换

  因为我们要进行TensorRT推理加速,故需要将我们训练出来模型先转换为.wts的格式,找到这个文件tools/predict.py下的如下位置:

在这里插入图片描述
只需将里面的涉及到的路径改为自己的,然后将166行的–save_wts属性改为True即可

三、开始编译

1、编译

进入到tensorrtx/dbnet,执行如下命令

mkdir build
cd build
cmake ..
make

2、模型准备

将我们生成的wts模型复制一份或者直接移动到当前路径下

3、模型转换

执行如下命令

./dbnet -s

成功后,会在我们当前目录生成一个engine文件。

4、测试

执行命令

./dbnet -d ./test_img

test_img是当前路径下的存放测试图片的文件夹

5、结果反馈

结果忘记截图记录,就口头说一下吧:
未加速:3-4ms一张图
TensorRT加速:11ms一张图
结果反而变慢了,原因还不太清楚,可能是存在不支持的算子。后续可能会去试试PaddleOCR里的DBNet,将两者的检测效果和加速情况做对比。


四、Bug记录

在编译过程中,出现了如下错误:

1、版本过高,出现如下错误:

在这里插入图片描述

这是因为我的TensorRT版本过高(8.2),而代码时7.x的版本,故解决办法为,更改dbnet下的logging.h文件里的239行如下:
在这里插入图片描述
改为:
在这里插入图片描述

2、编译过程中,出现如下错误:

在这里插入图片描述
解决办法:
在dbnet.cpp文件开头部分导入如下头文件:
在这里插入图片描述


总结

  以上就是我在编译中遇到的问题,对了,编译前,请确保CMakeLists.txt里的CUDA,TensorRT,OpenCV等路径和你的匹配,否则会爆其他的错,详情可以参考我在编译YOLOV5时遇到的错误,链接如下:这里
  解决以上错误,参考了几位大佬的博客,在此,表示感谢。在这里插入图片描述

版权声明:本文为CSDN博主「qq_55068938」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/qq_55068938/article/details/122382086

qq_55068938

我还没有学会写个人说明!

暂无评论

发表评论

相关推荐

pt模型在VS上运行

注意:本例子为我个人对YOLOv5的源码进行在VS上的实现,大家可按自己的模型根据源码进行修改 我这为单个物体的检测,如果检测多个物体需对结果处理函数(non_max_suppression2)进行修改