超越一切YOLO!旷视提出YOLOX:新一代实时目标检测网络

文章目录[隐藏]

非常期待YOLOv6(YOLOv4/v5已发布一年了),白嫖真香!

在这里插入图片描述

其中YOLOX-L版本以 68.9 FPS 的速度在 COCO 上实现了 50.0% AP,比 YOLOv5-L 高出 1.8% AP!还提供了支持 ONNX、TensorRT、NCNN 和 Openvino 的部署版本。代码刚刚开源!

在这里插入图片描述

YOLOX

YOLOX: Exceeding YOLO Series in 2021

  • 作者单位:旷视科技
  • 代码:https://github.com/Megvii-BaseDetection/YOLOX
  • 论文:https://arxiv.org/abs/2107.08430

在本报告中,我们介绍了YOLO系列的一些经验改进,形成了一个新的高性能检测器——YOLOX。我们将 YOLO 检测器切换为anchor-free并进行其他先进的检测技术,即decoupled head 和领先的标签分配策略 SimOTA,以在大量模型中实现最先进的结果。

在这里插入图片描述
在这里插入图片描述

对于 YOLO -Nano 仅 0.91M 参数和 1.08G FLOPs,我们在 COCO 上获得 25.3% AP,超过 NanoDet 1.8% AP;
在这里插入图片描述
对于业界应用最广泛的检测器之一 YOLOv3,我们在 COCO 上将其提升至 47.3% AP,比当前最佳高 3.0% AP;
在这里插入图片描述
对于参数量与 YOLOv4-CSP、YOLOv5-L 大致相同的 YOLOX-L,我们在 Tesla V100 上以 68.9 FPS 的速度在 COCO 上实现了 50.0% AP,比 YOLOv5-L 高出 1.8% AP。

在这里插入图片描述

此外,我们使用单个 YOLOX-L 模型赢得了Streaming Perception挑战(CVPR 2021 自动驾驶Worksho)的第一名。我们希望这份报告能够在实际场景中为开发者和研究人员提供有用的经验,我们也提供了支持 ONNX、TensorRT、NCNN 和 Openvino 的部署版本。

CVer-目标检测交流群

建了CVer-目标检测交流群!想要进目标检测学习交流群的同学,可以直接加微信号:CVer9999。加的时候备注一下:目标检测+学校/公司+昵称,即可。然后就可以拉你进群了。

强烈推荐大家关注CVer知乎账号和CVer微信公众号,可以快速了解到最新优质的CV论文。

在这里插入图片描述

版权声明:本文为CSDN博主「Amusi(CVer)」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/amusi1994/article/details/118932891

Amusi(CVer)

我还没有学会写个人说明!

暂无评论

发表评论

相关推荐

Yolo系列知识点梳理(Yolov1-v5)

1 概述 Yolo系列的模型是大多数做目标检测的图像算法工程师都在使用的,使用时经常也是先用了看看效果再说,如果效果不错,有时间再回头来研究一下模型,有时甚至就忘了回过头来细究。这篇文章

GiraffeDet:Heavy Neck的目标检测框架

关注并星标 从此不迷路 计算机视觉研究院 公众号ID|ComputerVisionGzq 学习群|扫码在主页获取加入方式 获取论文:关注并回复“GD” 计算机视觉研究院专栏 作者:Edison_G 在传统的目标检测框架中,从图像识别模型继承的主