深度学习与图像识别:原理与实践 笔记Day_18(目标检测)续

文章目录[隐藏]

SSD

SSD同时借鉴了YOLO网络的思想和Faster R-CNN的anchor机制,使SSD可以在进行快速预测的同时又可以相对准确地获取目标的位置。

(b)和(c)分别代表不同的特征层,图c相对于图b离最终的预测结果较近,因此其跨越同样像素个数能检测的目标就更大。如b所示,在特征层的每个结点上都将产生4个不同大小的anchor(1:1两个,1:2两个),如c所示,在特征层上也是如此。根据真是目标矩形框与每个anchor的IOU大小计算可知,b中包含2个anchor为正样本,c中只有1个。 

SSD的一些特点:

  1. 使用多尺度特征层进行检测。在Faster R-CNN的RPN中,anchor是在干网络的最后一个特征层上生成的,而在SSD中,anchor不仅是在最后一个特征层上产生的,而且在几个高层特征层处同时也在产生anchor。这些层大小依次递减,使得SSD可以检测不同尺度的目标。
  2. SSD中所有特征层产生的anchor都将经过正负样本的筛选,然后进行分类分数以及Bbox位置的学习。即特征层上生成的正负样本将直接进行最终的分类(ClassNum个类别)以及Bbox的学习,不像Faster R-CNN那样先在第一步学习是否有物体(只有0/1两个类别)以及Bbox位置,然后在第二步学习最终的分类(ClassNum个类别)以及对Bbox位置的微调。

在实际应用时,我们不仅要关注精度,很多情况下还要考虑速度,比如对视频内容进行实时地检测,这时候我们就希望又方法很好地进行速度和精度的平衡。

版权声明:本文为CSDN博主「努力卷」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/qq786558544/article/details/120912836

努力卷

我还没有学会写个人说明!

暂无评论

发表评论

相关推荐

yolo-fastest模型

两个关于yolo-fastest的资料 https://github.com/dog-qiuqiu/Yolo-FastestV2/ https://github.com/dog-qiuqiu/Yolo-Fastest

手把手教你实现YOLOv3 (一)

1. 引言 最近整理了YOLO系列相关论文阅读笔记,发现仅仅靠阅读论文还是有很多内容一知半解,吃得不是很透彻. 尽管网络上有很多博客都在讲解,但是很多实现细节细究起来还是有些困难. 俗话说的好: Talk is cheap. Show me

目标检测入坑指南3:VGGNet神经网络

学了蛮久的目标检测了,但是有好多细节总是忘或者模棱两可,感觉有必要写博客记录一下学习笔记和一些心得,既可以加深印象又可以方便他人。博客内容集成自各大学习资源,所以图片也就不加水印了&#xf

Yolov3代码实现

voc数据集构建文件 import sys import xml.etree.ElementTree as ET import config.yolov3_config_voc as cfg import os from tqdm impor