记录mmdetectionv1与mmdetectionv2的不同

记录mmdetectionv11.0.rc0+3c2e4df与mmdetectionv22.11.0的不同之处。这两个版本的不同还有另外一个影响因素比较大的就是mmcv版本差异也很大。如:v1版本对应的是mmcv0.2.14,v2版本对应的mmcv1.3.3

一、配置文件的不同

(1)rpn_head的不同

    rpn_head=dict(
        type='RPNHead',
        in_channels=256,
        feat_channels=256,
        anchor_scales=[4],  
        anchor_ratios=[0.5, 1.0, 2.0],
        anchor_strides=[4, 8, 16, 32, 64],
        target_means=[.0, .0, .0, .0],
        target_stds=[1.0, 1.0, 1.0, 1.0],  
        loss_cls=dict(
            type='CrossEntropyLoss', use_sigmoid=True, loss_weight=1.0),
        loss_bbox=dict(type='SmoothL1Loss', beta=1.0 / 9.0, loss_weight=1.0)), # V1
    
    ########
    
    rpn_head=dict(
        type='RPNHead',
        in_channels=256,
        feat_channels=256,
        anchor_generator=dict(
            type='AnchorGenerator',
            scales=[4],
            ratios=[0.5, 1.0, 2.0],
            strides=[4, 8, 16, 32, 64]),
        bbox_coder=dict(
            type='DeltaXYWHBBoxCoder',
            target_means=[.0, .0, .0, .0],
            target_stds=[1.0, 1.0, 1.0, 1.0]),
        loss_cls=dict(
            type='CrossEntropyLoss', use_sigmoid=True, loss_weight=1.0),
        loss_bbox=dict(type='L1Loss', loss_weight=1.0)),                      # v2

(2)v1的bbox_roi_extractor+bbox_head = v2的roi_head

"""
在 MMDetection v2.0 中,标签 “K” 表示背景,标签 [0, K-1] 对应于 K = num_categories 个对象类别。
在 MMDetection v1.x 及之前的版本中,标签 “0” 表示背景,标签 [1, K] 对应 K 个类别。
"""
    bbox_roi_extractor=dict(
        type='SingleRoIExtractor',
        roi_layer=dict(type='RoIAlign', out_size=7, sample_num=0),
        out_channels=256,
        featmap_strides=[4, 8, 16, 32]),
    bbox_head=dict(
        type='SharedFCBBoxHead',  # 命名不一样
        num_fcs=2,    # 数值也不一样,v1需要加上背景的类别
        in_channels=256,
        fc_out_channels=1024,
        roi_feat_size=7,
        num_classes=2,
        target_means=[0., 0., 0., 0.],
        target_stds=[0.1, 0.1, 0.2, 0.2],
        reg_class_agnostic=False,
        loss_cls=dict(
            type='CrossEntropyLoss', use_sigmoid=False, loss_weight=1.0),
        loss_bbox=dict(type='SmoothL1Loss', beta=1.0, loss_weight=1.0))      # v1
    
    ########
    
    roi_head=dict(
        type='StandardRoIHead',
        bbox_roi_extractor=dict(
            type='SingleRoIExtractor',
            roi_layer=dict(type='RoIAlign', output_size=7, sampling_ratio=0),
            out_channels=256,
            featmap_strides=[4, 8, 16, 32]),
        bbox_head=dict(
            type='Shared2FCBBoxHead',
            in_channels=256,
            fc_out_channels=1024,
            roi_feat_size=7,
            num_classes=1,
            bbox_coder=dict(
                type='DeltaXYWHBBoxCoder',
                target_means=[0., 0., 0., 0.],
                target_stds=[0.1, 0.1, 0.2, 0.2]),
            reg_class_agnostic=False,
            loss_cls=dict(
                type='CrossEntropyLoss', use_sigmoid=False, loss_weight=1.0),
            loss_bbox=dict(type='L1Loss', loss_weight=1.0))),                 # v2

(3)train_cfg下的rpn_proposal对应nms的不同,test_cfg也如此

    rpn_proposal=dict(
        nms_across_levels=False,
        nms_pre=2000,
        nms_post=2000,
        max_num=2000,  
        nms_thr=0.7,
        min_bbox_size=0),                                 # v1
    
    ########
        
    rpn_proposal=dict(
        nms_pre=2000,
        max_per_img=1000,    
        nms=dict(type='nms', iou_threshold=0.7),
        min_bbox_size=0),                                 # v2

二、mmcv,mmdet相关库的位置不同

## 在mmdet\models\necks的位置配置neck的时候
from ..utils import ConvModule      # v1
from mmcv.cnn import ConvModule     # v2

from mmdet.core import auto_fp16    # v1
from mmcv.runner import auto_fp16   # v2

三、相关操作不同

(1)Mask R-CNN、Faster R-CNN 和 RetinaNet 的默认回归损失从 smooth L1 损失更改为 L1 损失,使得 box AP 整体上都有所提升(约 0.6%)。但是,将 L1-loss 用在 Cascade R-CNN 和 HTC 等其他方法上并不能提高性能,因此我们保留这些方法的原始设置。如果在v1版本里强行修改成L1Loss的时候,会出现这个问题assert pred.size() == target.size() and target.numel() > 0

loss_bbox=dict(type='SmoothL1Loss', beta=1.0 / 9.0, loss_weight=1.0), # V1
loss_bbox=dict(type='L1Loss', loss_weight=1.0),                       # v2

(2)register_module不一样,v1的后面没有括号(),而v2的有。除了BACKBONES外,其他的也一样。

@BACKBONES.register_module    # v1
@BACKBONES.register_module()  # v2

(3)在 MMDetection v2.0 中,标签 “K” 表示背景,标签 [0, K-1] 对应于 K = num_categories 个对象类别。在 MMDetection v1.x 及之前的版本中,标签 “0” 表示背景,标签 [1, K] 对应 K 个类别。
总而言之,roi_head阶段的类别数num_classes:v1版本的是实际类别数+1;v2版本的就是实际类别数。

参考:

MMDETECTION V2.X 兼容性说明

版权声明:本文为CSDN博主「诸神黄昏的幸存者」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/weixin_43818631/article/details/122236158

我还没有学会写个人说明!

暂无评论

发表评论

相关推荐

深度学习之目标检测YOLOv5

一.简介 YOLOV4出现之后不久,YOLOv5横空出世。YOLOv5在YOLOv4算法的基础上做了进一步的改进,检测性能得到进一步的提升。虽然YOLOv5算法并没有与YOLOv4算法进行性能比较与分析&#xff0