TPH-yolov5–基于transformer的改进yolov5的无人机目标检测
这里是原文~~原文
本文在YOLOv5的基础上加入了一些新的技术,比如ViT、CBAM和一些Tricks(数据增广、多尺度测试等),最终命名为TPH-YOLOv5的目标检测器,特别擅长在无人机的目标捕捉。
工作单位: 北京航空航天大学
TPH-yolov5整体架构:
本文的主要贡献:
1.在yolov5的基础上,又增加了一个预测头来检测不同尺度的物体。
2.用transformer prediction heads(TPH)替换原来的预测头部,以利用自注意力机制探索预测潜力。
3.集成了卷积块注意力模型(CBMA)以在具有密集对象的场景中找到注意力区域。
4.一些tricks:数据增强、多尺度检测、多模型集成和利用额外的分类器。
模型选择:
1.yolov5m的模型虽然平均精度mAP@0.5,比yolov5l稍低了1.4%,但是单张图像检测目标的推理速度快乐不少。
2.yolov5m,是检测速度与精度俱优的最佳yolov5模型。
3.yolov5s网络最小,速度最少,AP精度也最低。
结论:
1.最后和yolov5的基模型相比,性能得到了提升。
2.在公开的数据集上,性能也有提升;在自采集的数据集上,同样也具有很好的解释性。
3.列出了5个不同模型在每个类别中的最终结果mAP,并与表3的融合模型进行了比较。在训练阶段使用不同的输入图像大小,并改变每个类别的权重,使每个模型唯一。使最终的集成模型得到一个相对平衡的结果。
4.检测结果图==
reference:
*TPH-YOLOv5: Improved YOLOv5 Based on Transformer Prediction Head for Object Detection on Drone-captured Scenarios
=The End=
版权声明:本文为CSDN博主「crushqqi」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/crush111/article/details/120921042
暂无评论