文章目录[隐藏]
写在前面
作者最近在做一些目标检测的竞赛,参加了火箭军智箭火眼人工智能挑战赛,科目一排名28,科目二排名23,提升不上去了😭。在这个过程中看见了yolov5这个模型的性能以及准确率是这么的优秀,于是果断采用了这个模型作为我们的baseline,当然在这不停的炼丹过程中,遇到了很多的问题,也学习到了很多的新知识。这里把自己遇到的网络结构理解与anchor设置方面的问题分享给大家,供大家参考,本人很少写博客,欢迎大家在评论区交流。
这里放上yolov5作者在coco数据集上的测试评分:
Yolov5网络结构
下面是yolov5的模型结构图,转载于江大白
作为one-stage目标检测的代表算法,yolo一次性输出目标框的位置和类别置信度,这里不再对模型里的具体模块进行阐释(其实我也不懂hhhh)。我们主要讲一下模型的输入和输出。在这张图片上,使用的输入图片大小设置为608*608,yolov5的作者在coco数据集上使用的输入图像大小为640,当然输入图像的大小没有限制,输入图像的不同会导致网络的宽度也会跟着改变,对应的生成的模型文件大小也会发生改变,这里提示大家一点,如果要使用预训练的权值,最好输入图像大小设置成和作者一样,输入图像的大小要求必须是32的倍数。
对于输出层(Prediction),经过前面的一系列特征提取和计算操作后,会生成三个特定大小的特征,大小分别为608/8=76,608/16=38,608/32=19,可能这也是输入图像大小要求是32的倍数的原因。
anchor(锚框)计算与设置详解
不同的目标检测算法的锚框设置有很大区别,我也是在这里面爬了很多的坑才总结出来一些规律,写给大家作为参考。
这里放上作者在coco数据集上设置的锚框:
anchors:
- [10,13, 16,30, 33,23] # P3/8
- [30,61, 62,45, 59,119] # P4/16
- [116,90, 156,198, 373,326] # P5/32
anchors参数里面共9个数值,一共三行9列,每一行代表在不同的特征图上,比如第一行是在最大的特征图上(在这里是7676255)的锚框,第二行是在中间的特征图上的锚框,第三行是在最小的特征图上的锚框,作者也很贴心的在每行的后面给出了提示。对于目标检测的任务来说,我们一般希望在更大的特征图上去检测小目标,这样的大特征图才含有更多的小目标信息。因此大特征图上的anchor数值通常设置为一个小数值,小的特征图上数值设置为一个大的数值检测大的目标,每一行的先后顺序可以打乱,不代表任何意义。
下面详解每个参数的意义及anchor计算方法
这里是作者对任务中的检测框长宽比统计
当然前期什么都不懂,拿个算法就开始训练😂,可以看出我的数据标注框长宽比非常不协调,与coco数据集完全不一样,简单统计了以下,最大的长宽比甚至达到了1:8以上,因此直接采用coco数据集上的anchor训练效果很不好。因此这才对这方面展开了一些调查研究。
由于图像做了resize到输入图像的大小,因此检测框的大小也要跟着发生改变,anchor计算使用的是改变后的检测框大小计算得到的,作者也给出了anchor的计算函数,在Yolov5目录下的utils目录下的general.py,里面有一个函数kmeans_anchor,通过kmeans的方法计算得到anchor。下面贴出作者写的代码,据说是每次打开会自动计算anchor,但不知道什么原因在我的代码中没有自动计算!因此我将这段代码拷贝到一个新的python文件,自动计算出anchor,然后更改模型文件中的anchor,再开始训练。
def kmean_anchors(path='./data/coco128.yaml', n=9, img_size=640, thr=4.0, gen=1000, verbose=True):
""" Creates kmeans-evolved anchors from training dataset
Arguments:
path: path to dataset *.yaml, or a loaded dataset
n: number of anchors
img_size: image size used for training
thr: anchor-label wh ratio threshold hyperparameter hyp['anchor_t'] used for training, default=4.0
gen: generations to evolve anchors using genetic algorithm
Return:
k: kmeans evolved anchors
Usage:
from utils.general import *; _ = kmean_anchors()
"""
thr = 1. / thr
def metric(k, wh): # compute metrics
r = wh[:, None] / k[None]
x = torch.min(r, 1. / r).min(2)[0] # ratio metric
# x = wh_iou(wh, torch.tensor(k)) # iou metric
return x, x.max(1)[0] # x, best_x
def fitness(k): # mutation fitness
_, best = metric(torch.tensor(k, dtype=torch.float32), wh)
return (best * (best > thr).float()).mean() # fitness
def print_results(k):
k = k[np.argsort(k.prod(1))] # sort small to large
x, best = metric(k, wh0)
bpr, aat = (best > thr).float().mean(), (x > thr).float().mean() * n # best possible recall, anch > thr
print('thr=%.2f: %.4f best possible recall, %.2f anchors past thr' % (thr, bpr, aat))
print('n=%g, img_size=%s, metric_all=%.3f/%.3f-mean/best, past_thr=%.3f-mean: ' %
(n, img_size, x.mean(), best.mean(), x[x > thr].mean()), end='')
for i, x in enumerate(k):
print('%i,%i' % (round(x[0]), round(x[1])), end=', ' if i < len(k) - 1 else '\n') # use in *.cfg
return k
if isinstance(path, str): # *.yaml file
with open(path) as f:
data_dict = yaml.load(f, Loader=yaml.FullLoader) # model dict
from utils.datasets import LoadImagesAndLabels
dataset = LoadImagesAndLabels(data_dict['train'], augment=True, rect=True)
else:
dataset = path # dataset
# Get label wh
shapes = img_size * dataset.shapes / dataset.shapes.max(1, keepdims=True)
wh0 = np.concatenate([l[:, 3:5] * s for s, l in zip(shapes, dataset.labels)]) # wh
# Filter
i = (wh0 < 3.0).any(1).sum()
if i:
print('WARNING: Extremely small objects found. '
'%g of %g labels are < 3 pixels in width or height.' % (i, len(wh0)))
wh = wh0[(wh0 >= 2.0).any(1)] # filter > 2 pixels
# Kmeans calculation
print('Running kmeans for %g anchors on %g points...' % (n, len(wh)))
s = wh.std(0) # sigmas for whitening
k, dist = kmeans(wh / s, n, iter=30) # points, mean distance
k *= s
wh = torch.tensor(wh, dtype=torch.float32) # filtered
wh0 = torch.tensor(wh0, dtype=torch.float32) # unflitered
k = print_results(k)
# Plot
# k, d = [None] * 20, [None] * 20
# for i in tqdm(range(1, 21)):
# k[i-1], d[i-1] = kmeans(wh / s, i) # points, mean distance
# fig, ax = plt.subplots(1, 2, figsize=(14, 7))
# ax = ax.ravel()
# ax[0].plot(np.arange(1, 21), np.array(d) ** 2, marker='.')
# fig, ax = plt.subplots(1, 2, figsize=(14, 7)) # plot wh
# ax[0].hist(wh[wh[:, 0]<100, 0],400)
# ax[1].hist(wh[wh[:, 1]<100, 1],400)
# fig.tight_layout()
# fig.savefig('wh.png', dpi=200)
# Evolve
npr = np.random
f, sh, mp, s = fitness(k), k.shape, 0.9, 0.1 # fitness, generations, mutation prob, sigma
pbar = tqdm(range(gen), desc='Evolving anchors with Genetic Algorithm') # progress bar
for _ in pbar:
v = np.ones(sh)
while (v == 1).all(): # mutate until a change occurs (prevent duplicates)
v = ((npr.random(sh) < mp) * npr.random() * npr.randn(*sh) * s + 1).clip(0.3, 3.0)
kg = (k.copy() * v).clip(min=2.0)
fg = fitness(kg)
if fg > f:
f, k = fg, kg.copy()
pbar.desc = 'Evolving anchors with Genetic Algorithm: fitness = %.4f' % f
if verbose:
print_results(k)
return print_results(k)
说一下没每个参数的意义,第一个代表数据yaml路径,n代表聚类数,img_size代表模型输入图片的大小,thr代表长宽比的阈值(将长宽比限定在一定的范围内),gen代表kmeans迭代次数。
上面的计算过程相当于将我画的长宽比先转化到resize640大小的长宽比下,再进行聚类,得到9个聚类中心,每个聚类中心包含(x,y)坐标就是我们需要的anchor,
比如我这里采用的参数及输出如下:
kmean_anchors(path='./data/coco128.yaml', n=9, img_size=512, thr=8, gen=1000, verbose=True)
#输出
#n=9, img_size=512, metric_all=0.640/0.909-mean/best, past_thr=0.640-mean: 134,38, 172,35, 135,48, 175,43, 209,38, 174,62, 254,69, 314,82, 373,95
将新的anchor更改到模型yaml前后对比如下:
# anchors:
# - [10,13, 16,30, 33,23] # P3/8
# - [30,61, 62,45, 59,119] # P4/16
# - [116,90, 156,198, 373,326] # P5/32
anchors:
- [134,38, 135,48, 172,35] # P3/8
- [174,62, 175,43, 209,38] # P4/16
- [254,69, 314,82, 373,95] # P5/32
采用新的最优的anchor,模型的效果果然提高了好多,另外提一句,关于这里的thr其实是和hyp.scratch.yaml文件中的anchor_t一样,代表了anchor放大的scale,我的标注框长宽比最大在8左右,因此设置为8。
当然,这里只是一个刚入门不久的深度学习小白的一点浅显理解,不喜勿喷,欢迎大家在评论区下面留言交流。
版权声明:本文为CSDN博主「aabbcccddd01」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/aabbcccddd01/article/details/109578614
暂无评论