目标检测评估指标 mAP P R

R(召回率recall)=正确预测的正样本数/实际拥有的正样本数

P(准确率precision)=正确预测的正样本数/总预测样本数

R是查全率,P是查准率,是两个不同维度的衡量方法。有时这两个是矛盾的,比如只检测出了一个结果,且是正确的,那么P就是100%,但是R就会很低。如果我们把所有认为可能的结果都返回,那么P可能就会很低,R就很高

比如:

R高P低:所有汽车都被正确识别出来,但是很多卡车也被误认为是汽车

R低P高:识别出的飞机都是正确的,但还有很多飞机没被识别出来

所以衡量一个模型的性能只看P或R不行,所以引入了AP(平均准确度Average Precision),简单来说就是对PR曲线求积分,如下图 

在yolov5训练实例中

我对参数的理解:mAP@.5代表IoU为0.5下的平均AP值,mAP@.95代表IoU为0.95下的平均AP值。在IOU为0.5时,预测框与ground truth部分只要有一部分交集就被判断为预测正确。而在IOU=0.95时,预测框要与ground truth高度重合才能算作预测正确,门槛相对挺高了,所以mAP@.95相比于mAP@.5更具有可信度。所以最后一个参数mAP@.5:.95应该是最重要的衡量指标,值越高代表模型的识别率越好。通过观察发现,每一轮的epoch过后,如果mAP@.5:.95这个参数比之前epoch的要大,那么best.pt就会更新,这也证实了我的想法

 

更多mAP解释:https://towardsdatascience.com/breaking-down-mean-average-precision-map-ae462f623a52

 

版权声明:本文为CSDN博主「singing4you」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/m0_59787404/article/details/123071284

singing4you

我还没有学会写个人说明!

暂无评论

发表评论

相关推荐