YOLOX训练自己的数据

YOLOX是旷世开源的用于目标检测的算法,相比于YOLO(V3-V5)系列,在精度上有提升,速度上也具有一定的竞争优势。

介绍

YOLOX是YOLO的anchor-free版本,设计更简单但性能更好!旨在弥合研究和工业界之间的差距,更多细节请参考我们在Arxiv上的论文。点击这里.

基准

标准模型.

模型 尺寸 mAPtest
0.5:0.95
速度V100
(ms)
参数量
(M)
FLOPs
(G)
weights
YOLOX-s 640 39.6 9.8 9.0 26.8 onedrive/github
YOLOX-m 640 46.4 12.3 25.3 73.8 onedrive/github
YOLOX-l 640 50.0 14.5 54.2 155.6 onedrive/github
YOLOX-x 640 51.2 17.3 99.1 281.9 onedrive/github
YOLOX-Darknet53 640 47.4 11.1 63.7 185.3 onedrive/github

轻量模型.

Model size mAPval
0.5:0.95
Params
(M)
FLOPs
(G)
weights
YOLOX-Nano 416 25.3 0.91 1.08 onedrive/github
YOLOX-Tiny 416 31.7 5.06 6.45 onedrive/github

快速开始

安装

第一步. 安装 YOLOX

git clone git@github.com:Megvii-BaseDetection/YOLOX.git
cd YOLOX
pip3 install -U pip && pip3 install -r requirements.txt
pip3 install -v -e .  # or  python3 setup.py develop

第二步. 安装 apex.

# 如果不想训练模型,可跳过这步。
git clone https://github.com/NVIDIA/apex
cd apex
pip3 install -v --disable-pip-version-check --no-cache-dir --global-option="--cpp_ext" --global-option="--cuda_ext" ./

第三步. 安装 pycocotools.

pip3 install cython; pip3 install 'git+https://github.com/cocodataset/cocoapi.git#subdirectory=PythonAPI'

演示

1.从基准表下载预训练模型。

2.使用 -n 或 -f 来设定检测器的配置。以图片为例:

python tools/demo.py image -n yolox-s -c /path/to/your/yolox_s.pth.tar --path assets/dog.jpg --conf 0.25 --nms 0.45 --tsize 640 --save_result --device [cpu/gpu]

或者

python tools/demo.py image -f exps/default/yolox_s.py -c /path/to/your/yolox_s.pth.tar --path assets/dog.jpg --conf 0.25 --nms 0.45 --tsize 640 --save_result --device [cpu/gpu]

视频演示:

python tools/demo.py video -n yolox-s -c /path/to/your/yolox_s.pth.tar --path /path/to/your/video --conf 0.25 --nms 0.45 --tsize 640 --save_result --device [cpu/gpu]

如果想指定显卡,可以在上面命令前面加上 CUDA_VISIBLE_DEVICES=<YOUR_GPU_ID>,例如我只有一张卡,默认为0,
CUDA_VISIBLE_DEVICES=0 python tools/demo.py image -n yolox-s -c weights/yolox_s.pth.tar --path assets/dog.jpg --conf 0.25 --nms 0.45 --tsize 640 --save_result

目前来看,YOLOV5在速度和精度的平衡上做到了很好,而YOLOX也有YOLOV5一样的多个尺寸的模型,现在对比YOLOV5s 和YOLOXs的效果(图片测试)

这是YOLOV5s的图片检测效果
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在相同的-conf和-nms 下 YOLOX的测试效果如下:
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
通过对比,可以看到,YOLOX确实在精度上有优势,对于错误分类,两者都存在。
比如图片1中yolov5误检石柱为消防栓,而yolox检测正确,检测精度都比yolov5好。
在图片2中,yolox在汽车检测上出了一点问题,好像检测出了两个分类(有两个颜色的检测框)
图片3中,yolox有一个tie没检测出来。
速度的话,我有通过视频测试,虽然速度上都快,但YOLOv5更加流畅(更快)。个人认为,整体上在大数据集上YOLOX精度较好,yolov5更全面(占用内存更小,速度更快),论文说超过YOLO系列,还有一些文章写什么吊打,显然有点吹嘘。仅仅是在精度上稍有优势,速度也并没有yolov5快,相同型号的模型内存更是yolo5的三四倍,工程化道路还很长。不过有这么优秀的开源项目和idea供我们学习,何乐而不为呢。

自定义数据训练.

如何使用YOLOX训练你自己的数据集.

0. 开始之前

克隆这个仓库并安装YOLOX.

1. 创建自己的数据集

Step 1 首先准备您自己的带有图像和标签的数据集。对于标记图像,您可以使用 Labelme 或者 CVAT.

Step 2 然后,编写对应的Dataset Class,可以通过__getitem__方法加载图片和标签。我们目前支持 COCO 格式和 VOC 格式。您也可以自己编写数据集。我们以 VOC数据集文件为例

    @Dataset.resize_getitem
    def __getitem__(self, index):
        img, target, img_info, img_id = self.pull_item(index)

        if self.preproc is not None:
            img, target = self.preproc(img, target, self.input_dim)

        return img, target, img_info, img_id

还有一点值得注意的是你应该实现pull_itemload_anno 方法来实现 Mosiac and MixUp 增强.

Step 3 准备评估器。我们目前有COCO evaluatorVOC evaluator.
如果您有自己的格式数据或评估指标,则可以编写自己的评估器

Step 4 将您的数据集放在$YOLOX_DIR/datasets, 对于 VOC:

ln -s /path/to/your/VOCdevkit ./datasets/VOCdevkit
  • 路径“VOCdevkit”将在下一节描述的 exp 文件中使用。具体来说,在get_data_loader和get_eval_loader功能

2. 创建你的Exp文件

我们将模型中涉及的所有内容都放在一个单独的 Exp 文件中,包括模型设置、训练设置和测试设置。
完整的Exp文件位于yolox_base.py. 如果独立编写Exp,每个可能都太长,你可以继承基础exp文件,只重写改变的部分.

我们以VOC Exp file 为例:

我们选择YOLOX-S 模型, 所以我们应该改变网络深度和宽度. VOC 只有20个类 ,所以我们也要改变 num_classes,如果你的数据集只有10个类,你也应该改为相应的类别数。

这些配置在init()方法中更改

class Exp(MyExp):
    def __init__(self):
        super(Exp, self).__init__()
        self.num_classes = 20
        self.depth = 0.33
        self.width = 0.50
        self.exp_name = os.path.split(os.path.realpath(__file__))[1].split(".")[0]

此外,在使用您自己的数据训练模型之前,您还应该重写dataset和evaluator。

有关更多详细信息,请参阅get_data_loader, get_eval_loader, and get_evaluator

3.训练

除特殊情况外,我们始终建议使用我们的COCO pretrained weights 预训练权重来初始化模型。

获得我们提供的 Exp 文件和 COCO 预训练权重后,您可以通过以下命令训练自己的模型::

python tools/train.py -f /path/to/your/Exp/file -d 8 -b 64 --fp16 -o -c /path/to/the/pretrained/weights

或者以YOLOX-S VOC 训练为例:

python tools/train.py -f exps/example/yolox_voc/yolox_voc_s.py -d 8 -b 64 --fp16 -o -c /path/to/yolox_s.pth.tar

4.获取最佳训练结果的技巧

由于YOLOX是一个只有几个超参数的无锚检测器,大多数情况下可以在不改变模型或训练设置的情况下获得良好的结果。因此,我们始终建议您首先使用所有默认训练设置进行训练。

如果一开始你没有得到好的结果,你可以考虑采取一些步骤来改进模型。

模型选择 我们提供YOLOX-Nano, YOLOX-TinyYOLOX-S用于移动端部署,而YOLOX-M/L/X用于云或高性能GPU部署

如果您的部署遇到兼容性问题。推荐使用YOLOX-DarkNet53.

训练配置 如果您的训练过早过拟合,那么您可以减少 max_epochs 或减少您的 Exp 文件中的 base_lr 和 min_lr_ratio:

# --------------  training config --------------------- #
    self.warmup_epochs = 5
    self.max_epoch = 300
    self.warmup_lr = 0
    self.basic_lr_per_img = 0.01 / 64.0
    self.scheduler = "yoloxwarmcos"
    self.no_aug_epochs = 15
    self.min_lr_ratio = 0.05
    self.ema = True

    self.weight_decay = 5e-4
    self.momentum = 0.9

增强配置 您还可以更改增强的程度。

一般来说,对于小模型,你应该弱化aug,而对于大模型或小数据集,你可以在exp文件中增强aug:

# --------------- transform config ----------------- #
    self.degrees = 10.0
    self.translate = 0.1
    self.scale = (0.1, 2)
    self.mscale = (0.8, 1.6)
    self.shear = 2.0
    self.perspective = 0.0
    self.enable_mixup = True

版权声明:本文为CSDN博主「JOBbaba」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/JOBbaba/article/details/119189154

JOBbaba

我还没有学会写个人说明!

暂无评论

发表评论

相关推荐

YOLO-V3-SPP详细解析

YOLO-V3-SPP 继前两篇简单的YOLO博文 YOLO-V1 论文理解《You Only Look Once: Unified, Real-Time Object Detection》YOLO-V2论文理解《YOLO9000: Bet