文章目录[隐藏]
前言
最近,在项目中需要用到DBNet,为了达到实时性,故想TensorRT来进行推理加速。
一、准备工作
1.代码下载
pytorch版的DBNet下载:DBNet(Windows下使用TensorRT也可以参考)
对应的TensorRT编译代码:TensorRTX
2.环境搭建
所需依赖项参考原先的DBNet的requirement.txt:这里
可以将这个requirements.txt内容复制一份,然后我们的python环境中执行以下操作:
pip install -r requirement.txt
二、模型准备
1、训练自己的模型
根据pytorch版的DBNet里的README.md来进行数据集的准备和自己模型的训练。
需要注意的是,这里用的预训练模型是你选用的主干网络的模型,在代码中会自动下载。嫌弃慢的话,可以提前下在好,然后放到指定路径下即可。
2.模型转换
因为我们要进行TensorRT推理加速,故需要将我们训练出来模型先转换为.wts的格式,找到这个文件tools/predict.py下的如下位置:
只需将里面的涉及到的路径改为自己的,然后将166行的–save_wts属性改为True即可
三、开始编译
1、编译
进入到tensorrtx/dbnet,执行如下命令
mkdir build
cd build
cmake ..
make
2、模型准备
将我们生成的wts模型复制一份或者直接移动到当前路径下
3、模型转换
执行如下命令
./dbnet -s
成功后,会在我们当前目录生成一个engine文件。
4、测试
执行命令
./dbnet -d ./test_img
test_img是当前路径下的存放测试图片的文件夹
5、结果反馈
结果忘记截图记录,就口头说一下吧:
未加速:3-4ms一张图
TensorRT加速:11ms一张图
结果反而变慢了,原因还不太清楚,可能是存在不支持的算子。后续可能会去试试PaddleOCR里的DBNet,将两者的检测效果和加速情况做对比。
四、Bug记录
在编译过程中,出现了如下错误:
1、版本过高,出现如下错误:
这是因为我的TensorRT版本过高(8.2),而代码时7.x的版本,故解决办法为,更改dbnet下的logging.h文件里的239行如下:
改为:
2、编译过程中,出现如下错误:
解决办法:
在dbnet.cpp文件开头部分导入如下头文件:
总结
以上就是我在编译中遇到的问题,对了,编译前,请确保CMakeLists.txt里的CUDA,TensorRT,OpenCV等路径和你的匹配,否则会爆其他的错,详情可以参考我在编译YOLOV5时遇到的错误,链接如下:这里
解决以上错误,参考了几位大佬的博客,在此,表示感谢。
版权声明:本文为CSDN博主「qq_55068938」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/qq_55068938/article/details/122382086
暂无评论