目标检测:YOLO v1算法

YOLO V1

算法思想

  1. 将一幅图像分成s*s个网格,如果某个目标的中心落在这个网格中,则这个网络就负责预测这个目标。
  2. 每个网格要预测B个bounding box,每个bounding box除了要预测位置之外,还要附带预测一个置信度,每个网格还要预测C个类别的分数。

网络结构

YOLOv1使用了24层卷积层和2层全连接层,最后得到一个7*7*30的Tensorimage-20211126230348045

输出的7*7*30中的30表示的是两个预测框的位置和置信度以及20个类别的分数,前10个表示的是两个框的中心点坐标和置信度,后20个表示的是20个类别的分数

img

损失函数

image-20211126232019556

这四个损失都是使用的误差平方和,其中在计算宽高损失的时候先开根号后再求误差平方和,是因为当小目标和大目标的差值相同时,如果直接做差那就造成两个的损失是一样的,但现实是大目标的损失应该更小些,所以作者使用了开根号后再求误差平方和。

[公式]在这里插入图片描述的作用,就是让含有物体的格点,在损失函数中的权重更大,让模型更加“重视”含有物体的格点所造成的损失。在论文中,[公式]在这里插入图片描述 的取值分别为5与0.5。

img

版权声明:本文为CSDN博主「_-CHEN-_」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/qq_40042726/article/details/121395499

_-CHEN-_

我还没有学会写个人说明!

暂无评论

发表评论

相关推荐

YOLO-V3-SPP详细解析

YOLO-V3-SPP 继前两篇简单的YOLO博文 YOLO-V1 论文理解《You Only Look Once: Unified, Real-Time Object Detection》YOLO-V2论文理解《YOLO9000: Bet