CNN卷积神经网络之Res2Net和Res2NetPlus


前言

《Res2Net: A New Multi-scale Backbone Architecture》
论文地址:https://arxiv.org/pdf/1904.01169.pdf

面向视觉任务的多尺度表示对于目标检测、语义分割和显著目标检测任务具有重大意义。通过CNN新模块Res2Net,能够实现与比以往优秀的基于CNN backbone 的模型(如ResNet,ResNeXt)更好的性能表现。Res2Net:计算负载不增加,特征提取能力更强大

Res2Net module

在这里插入图片描述

集成Dimension cardinality和SE block

本文所提出的Res2Net模块可以融合到最先进的backbone CNN模型中,例如ResNet,ResNeXt。集成后的模型可称为Res2Net,Res2NeXt

Res2NeXt和加入SE block具体实现方法如下图:
在这里插入图片描述
这里的分组卷积来替代ResNeXt的基数
CNN卷积神经网络之ResNeXt
CNN卷积神经网络之SENet

实验结果

图像分类:
在这里插入图片描述
w是通道数,s是支路数。可见增加模型复杂度带来更大的复杂度
在这里插入图片描述
目标检测:
分别在PASCAL VOC07和COCO数据集上,使用Faster R-CNN目标检测方法,以ResNet-50和Res2Net-50作为backbone,实验结果如下表所示:
在这里插入图片描述

更多实验结果:https://mmcheng.net/res2net/
代码和模型:https://github.com/Res2Net/Res2Net-PretrainedModels

Res2NetPlus

来源
Res2Net的官方实现在很多方面都是在一个较老的ResNet风格中实现的。因此,有人开始进行了升级:

  • 使用Mish而不是ReLU进行激活。

  • 将旧ResNet的主干,单一的7x7卷积更改为3x3卷积核堆叠的主干。

  • 反转BN->激活的顺序,变成激活->BN。

“我们不应该把Batch Normalization放在ReLU之前,因为ReLU的非负响应会使权值层更新的方式不太理想……”。

代码:https://github.com/lessw2020/res2net-plus

  • TIPs:
    Res2Net的最佳用法似乎集中在物体识别和分割类型的任务上。Res2Net喜欢高级数据增强,比如mix-up、CutMix等。你可以看到使用这些工具时验证损失会急剧下降,因此强烈建议使用Res2Net进行大量的数据增强。

缺点:
虽然Res2Net的计算复杂度与等效的ResNet相似,但它的运行速度仍然比对应的ResNet慢(20%似乎是平均水平)。

上一篇:CNN卷积神经网络之ResNeSt

版权声明:本文为CSDN博主「球场书生」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/qq_41917697/article/details/122796332

球场书生

我还没有学会写个人说明!

暂无评论

发表评论

相关推荐

目标检测(SPPNet)

1. 将整个图片输入到一个基础卷积网络,得到feature map 2.原图中通过选择性搜索(SS)得到候选区域直接映射到feature map中对应位置。 整个映射过程有如下公式: 左上角的点 x (x / s) 1;  

FPN (特征金字塔) 的原理和代码

1. 为什么会使用金字塔式的representation以及它存在的问题。 论文中提到一些传统的使用深度学习来做物体检测的结构会倾向于避开使用金字塔性质的representation, 因为使用这样的representation会对算力和内存