目标检测常用评价指标笔记

1、准确度指标

Accuracy准确率:正确预测的正样本和负样本的总数/总数

error_rate:错误预测的正样本和负样本总数/总数

混淆矩阵Confusion Matrix:

每一行之和表示该类别的真实样本数量,每一列之和表示被预测为该类别的样本数量,

例如第一行,第一列数据表示预测是类1是50个,实际对的只有43个

对角线越大,预测效果越好

分类目标

分类目标只有两类:positive正例和negtive负例

True positives(TP):本身是正例,被预测成正例的个数

False positives(FP): 本身为负例但是被预测为正例的个数

False negatives(FN):本身为正例但是预测为负例的个数

Ture negatives(TN):本身为负例被预测为负例的个数

召回率recall:预测为正例的个数除以实际全部的正例的个数之比

Recall=TP/(TP+FN) = TP/P

精确率Precision:预测为真的中实际上也为真的个数占总预测为真的个数之比

Precision = TP / (TP + FP)

平均精度(Average-Precision):AP值越高,分类越好

 用F指标选择阈值:F_{\beta }=(1+\beta ^{2})*\frac{precision*recall}{\beta ^{2}*precision+recall}

 \beta是关与召回的权重,大于1说明更看重召回的影响,小于1则更看重精度,等于1相当于两者的调和平均,这里得到一个常用的指标F1-Measure。

F1指标:

F = 2*\frac{precision*recall}{precision+recall}

 

 ROC(受试者工作特征)曲线以及AUC

真正例率和假正例率:

TPR = TP/(TP+FN)

FPR = FP/(FP+TN)

TPR越高,FPR越低分类效果越好

 AUC(Area Under Curve):ROC曲线围住的面积越大,分类器效果越好

EER(Equal Error Rate):

指的是FNR=FPR的情况,因为FNR=1-TPR,所以在ROC曲线中就是曲线和(0,1)、(1,0)对角线的交点。从漏检和误检的角度,FPR理解为对正样本的漏检率,FNR则是预测为正样本的误检率。EER是均衡考虑这两者时的阈值选定标准

平均精度均值(mAP):

IOU(Intersection Ober Union):

 

 

版权声明:本文为CSDN博主「博观而约取,厚积而薄发」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/mddCSDN/article/details/121741631

我还没有学会写个人说明!

暂无评论

发表评论

相关推荐

深度学习之目标检测YOLOv5

一.简介 YOLOV4出现之后不久,YOLOv5横空出世。YOLOv5在YOLOv4算法的基础上做了进一步的改进,检测性能得到进一步的提升。虽然YOLOv5算法并没有与YOLOv4算法进行性能比较与分析&#xff0