文章目录[隐藏]
上一章介绍了STAC的基础理论,接下来我们看一下具体实验操作和初步的试验结果。
实验细节
MS-COCO数据集的试验设置
MS-COCO包含来自80个目标类别的超过118k个标记图像和850k个标记目标实例用于训练。此外,还有123k个未标记的图像可用于半监督学习。论文试验了两种SSL设置。
第一种:随机抽取1、2、5和10%的已标记训练数据作为标记集,其余的已标记训练数据作为未标记集。对于这些实验,创建了5个数据折(fold)。1%协议包含从MS-COCO的标签集合中随机选择的大约1.2K个标签图像。2%的协议包含额外的∼1.2k图像,5%、10%的协议数据集以类似的方式构建。
第二种:使用整个已标记的训练数据作为已标记的集合,并将附加的未标记的数据用作未标记的集合。需要注意的是,第一个协议在只有很少的标记样本可用时测试STAC的有效性,而第二个协议评估除了已有的大规模标记数据之外,使用未标记数据改进最新目标检测器的潜力。
两个实验都是计算80个类别的mAP。
Pascal VOC数据集的试验设置
在Pascal VOC上测试时,包含来自20个类别的5011个图像的VOC07集合被用作标记的训练数据,并且来自VOC12的集合的11540个图像被用于未标记的训练数据。在VOC07的测试集上对检测性能进行了评估,除了MS-COCO度量外,还报告了IOU为0.5(AP0.5)的mAP。
结果展示
MS-COCO上不同方法的MAP比较。报告了1、2、5和10%协议的5个数据折(fold)的平均值和标准差。“Supervised”指的是仅在标签数据上训练的模型,然后这些模型被用来为STAC提供伪标签。我们用C+{B,G}+切割法训练STAC来处理未标记的数据。使用†的模型使用与STAC相同的扩充策略进行训练,但仅使用标记的数据。
这样来看,对于少样本情况下准确率的提升也是有显著效果的。
这个实验在不同的数据规模进行了比较,确实比较能说明数据增强和STAC的性能提升。
在VOC07上对不同方法的mAP进行比较。报告了两个mAP,IOU=0.5:0.95,这是MS-COCO的标准度量,以及IOU=0.5(AP0.5),因为AP0.5是以前工作中被论证的饱和度量。对于STAC,遵循具有不同级别的未标签源,包括VOC12和具有与Pascal VOC相同类别的MS-COCO数据子集。
可以看到数据增强大概能提升1个点,STAC在此基础上能再提升1个点。
引入的两个超参数的影响
图4展示了两个超参数不同的设置下的mAP
λu表示组合损失函数中无监督损失所占的比重,当每个τ固定时,可以看到λu=2时可以取得最好的效果。而且灰色间隔线为监督学习基准,也就是说加入无监督损失在大部分情况下都是可以有效提升模型性能的。
对于τ,大致趋势表现为该值越大的效果越好。可以这样理解:τ值代表了在STAC对于所要利用的伪标签的筛选的严格程度,该值越大则证明对伪标签筛选的更加严格(伪标签更加干净),标注错误的伪标签对模型性能的影响越小。
小结
1. 数据增强在半监督学习中确实很有效
2. 数据量仍然是提升深度学习模型的性能的最有效的方法
3. 交叉验证对模型的结果有一定的影响
4 半监督学习对于小样本情况的效果明显,或许可成为解决少样本问题的有效方法
版权声明:本文为CSDN博主「是魏小白吗」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/qq_37662375/article/details/121309737
暂无评论