深度学习(四):自己训练yolov5模型进行目标检测

文章目录[隐藏]

流程

跟yolo系列一样,检测训练过程包括了4步:

搜集数据集
数据集的标注,分类以及清洗
进行训练
获得权重进行测试和预测

工程开始

先附上源码链接:https://github.com/ultralytics/yolov5
下载或者通过git clone https://github.com/ultralytics/yolov5.git将YOLOv5源码download,
创建虚拟环境,并通过pip install -r requirements.txt安装依赖包。(如果有可以用的环境就不用这一步咯)

一、搜集数据集以及标注这部分就先跳过了,yolov5具体的标注提示在链接里很清晰了。
yolov5 label create

二、数据集的训练格式:
我们数据集标注结束后是VOC的格式,即标注信息应该为xml的。例如下图:
在这里插入图片描述
接下来我们要转成yolo_txt训练的格式,即:
第一列是类别
如何转呢,
1、我们在工程下建立文件夹paper_data(你也可以叫其他的名字)。子目录三个,这个最好不改名。,如下样式:
在这里插入图片描述

Annotations就是存放我们voc文件的xml标注信息了。images就是我们数据集照片。这里是采用.jpg的格式。ImageSets下面有一个Main文件夹,用来存放训练,评估,测试的数据集分类索引。
2、建立训练,评估,测试的数据集分类索引,
我们可以利用脚本split_train_val.py。如下:

# coding:utf-8

import os
import random
import argparse

parser = argparse.ArgumentParser()
#xml文件的地址,根据自己的数据进行修改 xml一般存放在Annotations下
parser.add_argument('--xml_path', default='Annotations', type=str, help='input xml label path')
#数据集的划分,地址选择自己数据下的ImageSets/Main
parser.add_argument('--txt_path', default='ImageSets/Main', type=str, help='output txt label path')
opt = parser.parse_args()

trainval_percent = 1.0
train_percent = 0.9
xmlfilepath = opt.xml_path
txtsavepath = opt.txt_path
total_xml = os.listdir(xmlfilepath)
if not os.path.exists(txtsavepath):
    os.makedirs(txtsavepath)

num = len(total_xml)
list_index = range(num)
tv = int(num * trainval_percent)
tr = int(tv * train_percent)
trainval = random.sample(list_index, tv)
train = random.sample(trainval, tr)

file_trainval = open(txtsavepath + '/trainval.txt', 'w')
file_test = open(txtsavepath + '/test.txt', 'w')
file_train = open(txtsavepath + '/train.txt', 'w')
file_val = open(txtsavepath + '/val.txt', 'w')

for i in list_index:
    name = total_xml[i][:-4] + '\n'
    if i in trainval:
        file_trainval.write(name)
        if i in train:
            file_train.write(name)
        else:
            file_val.write(name)
    else:
        file_test.write(name)

file_trainval.close()
file_train.close()
file_val.close()
file_test.close()

我们运行了这个脚本之后,会在paper_data/ImageSets/Main下得到划分的结果
在这里插入图片描述
3、转换成yolo_txt标注标签,同样,运行脚本voc_label.py:

# -*- coding: utf-8 -*-
import xml.etree.ElementTree as ET
import os
from os import getcwd

sets = ['train', 'val', 'test']
classes = ["a", "b"]   # 改成自己的类别
abs_path = os.getcwd()
print(abs_path)

def convert(size, box):
    dw = 1. / (size[0])
    dh = 1. / (size[1])
    x = (box[0] + box[1]) / 2.0 - 1
    y = (box[2] + box[3]) / 2.0 - 1
    w = box[1] - box[0]
    h = box[3] - box[2]
    x = x * dw
    w = w * dw
    y = y * dh
    h = h * dh
    return x, y, w, h

def convert_annotation(image_id):
    in_file = open('/home/trainingai/zyang/yolov5/paper_data/Annotations/%s.xml' % (image_id), encoding='UTF-8')
    out_file = open('/home/trainingai/zyang/yolov5/paper_data/labels/%s.txt' % (image_id), 'w')
    tree = ET.parse(in_file)
    root = tree.getroot()
    size = root.find('size')
    w = int(size.find('width').text)
    h = int(size.find('height').text)
    for obj in root.iter('object'):
        # difficult = obj.find('difficult').text
        difficult = obj.find('Difficult').text
        cls = obj.find('name').text
        if cls not in classes or int(difficult) == 1:
            continue
        cls_id = classes.index(cls)
        xmlbox = obj.find('bndbox')
        b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),
             float(xmlbox.find('ymax').text))
        b1, b2, b3, b4 = b
        # 标注越界修正
        if b2 > w:
            b2 = w
        if b4 > h:
            b4 = h
        b = (b1, b2, b3, b4)
        bb = convert((w, h), b)
        out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')

wd = getcwd()
for image_set in sets:
    if not os.path.exists('/home/trainingai/zyang/yolov5/paper_data/labels/'):
        os.makedirs('/home/trainingai/zyang/yolov5/paper_data/labels/')
    image_ids = open('/home/trainingai/zyang/yolov5/paper_data/ImageSets/Main/%s.txt' % (image_set)).read().strip().split()
    list_file = open('paper_data/%s.txt' % (image_set), 'w')
    for image_id in image_ids:
        list_file.write(abs_path + '/paper_data/images/%s.jpg\n' % (image_id))
        convert_annotation(image_id)
    list_file.close()

运行的结果,你会得到一个label文件夹,以及3个txt文件。他们分别是,yolo_txt格式的标签集合,训练图片的绝对路径集合,评估数据集的绝对路径集合以及测试数据集的绝对路径集合。
在这里插入图片描述
到此处,我们的数据处理部分就完成啦。下一阶段就是配置专属于你的yolov5. 非常形象。

三、配置:
1、在yolov5目录下的data中,新建一个(name).yaml的文件。这里的(name)是自定义的哈。
然后配置:
在这里插入图片描述
应该图标识很清楚这个yaml是做什么用的了吧。train是训练数据集的绝对路径。val是评估数据集的绝对路径。nc是你本次工程的检测类别。names就是检测类别的名字。

2、配置anchors,因为我们自己的数据集所需要的anchor初始大小是不一样的。它自身带的三种尺度的anchor是用在公用数据集上的。那么我们自己的任务由于长宽比可能会不同等等问题,我们需要调整初始的anchor,
两步,建立kmeans.py脚本,用脚本clauculate_anchors.py生成初始anchors。
first,kmeans.py:

import numpy as np

def iou(box, clusters):
    """
    Calculates the Intersection over Union (IoU) between a box and k clusters.
    :param box: tuple or array, shifted to the origin (i. e. width and height)
    :param clusters: numpy array of shape (k, 2) where k is the number of clusters
    :return: numpy array of shape (k, 0) where k is the number of clusters
    """
    x = np.minimum(clusters[:, 0], box[0])
    y = np.minimum(clusters[:, 1], box[1])
    if np.count_nonzero(x == 0) > 0 or np.count_nonzero(y == 0) > 0:
        raise ValueError("Box has no area")                 # 如果报这个错,可以把这行改成pass即可

    intersection = x * y
    box_area = box[0] * box[1]
    cluster_area = clusters[:, 0] * clusters[:, 1]

    iou_ = intersection / (box_area + cluster_area - intersection)

    return iou_

def avg_iou(boxes, clusters):
    """
    Calculates the average Intersection over Union (IoU) between a numpy array of boxes and k clusters.
    :param boxes: numpy array of shape (r, 2), where r is the number of rows
    :param clusters: numpy array of shape (k, 2) where k is the number of clusters
    :return: average IoU as a single float
    """
    return np.mean([np.max(iou(boxes[i], clusters)) for i in range(boxes.shape[0])])

def translate_boxes(boxes):
    """
    Translates all the boxes to the origin.
    :param boxes: numpy array of shape (r, 4)
    :return: numpy array of shape (r, 2)
    """
    new_boxes = boxes.copy()
    for row in range(new_boxes.shape[0]):
        new_boxes[row][2] = np.abs(new_boxes[row][2] - new_boxes[row][0])
        new_boxes[row][3] = np.abs(new_boxes[row][3] - new_boxes[row][1])
    return np.delete(new_boxes, [0, 1], axis=1)


def kmeans(boxes, k, dist=np.median):
    """
    Calculates k-means clustering with the Intersection over Union (IoU) metric.
    :param boxes: numpy array of shape (r, 2), where r is the number of rows
    :param k: number of clusters
    :param dist: distance function
    :return: numpy array of shape (k, 2)
    """
    rows = boxes.shape[0]

    distances = np.empty((rows, k))
    last_clusters = np.zeros((rows,))

    np.random.seed()

    # the Forgy method will fail if the whole array contains the same rows
    clusters = boxes[np.random.choice(rows, k, replace=False)]

    while True:
        for row in range(rows):
            distances[row] = 1 - iou(boxes[row], clusters)

        nearest_clusters = np.argmin(distances, axis=1)

        if (last_clusters == nearest_clusters).all():
            break

        for cluster in range(k):
            clusters[cluster] = dist(boxes[nearest_clusters == cluster], axis=0)

        last_clusters = nearest_clusters

    return clusters

if __name__ == '__main__':
    a = np.array([[1, 2, 3, 4], [5, 7, 6, 8]])
    print(translate_boxes(a))

clauculate_anchors.py:

# -*- coding: utf-8 -*-
# 根据标签文件求先验框

import os
import numpy as np
import xml.etree.cElementTree as et
from kmeans import kmeans, avg_iou

FILE_ROOT = "./paper_data/(最好是绝对路径)"     # 根路径
ANNOTATION_ROOT = "Annotations"  # 数据集标签文件夹路径
ANNOTATION_PATH = FILE_ROOT + ANNOTATION_ROOT

ANCHORS_TXT_PATH = "绝对路径,例如: /home/yolov5/data/anchors.txt"

CLUSTERS = 9
CLASS_NAMES = ['a', 'b']

def load_data(anno_dir, class_names):
    xml_names = os.listdir(anno_dir)
    boxes = []
    for xml_name in xml_names:
        xml_pth = os.path.join(anno_dir, xml_name)
        tree = et.parse(xml_pth)

        width = float(tree.findtext("./size/width"))
        height = float(tree.findtext("./size/height"))

        for obj in tree.findall("./object"):
            cls_name = obj.findtext("name")
            if cls_name in class_names:
                xmin = float(obj.findtext("bndbox/xmin")) / width
                ymin = float(obj.findtext("bndbox/ymin")) / height
                xmax = float(obj.findtext("bndbox/xmax")) / width
                ymax = float(obj.findtext("bndbox/ymax")) / height

                box = [xmax - xmin, ymax - ymin]
                boxes.append(box)
            else:
                continue
    return np.array(boxes)

if __name__ == '__main__':

    anchors_txt = open(ANCHORS_TXT_PATH, "w")

    train_boxes = load_data(ANNOTATION_PATH, CLASS_NAMES)
    count = 1
    best_accuracy = 0
    best_anchors = []
    best_ratios = []

    for i in range(10):      ##### 可以修改,不要太大,否则时间很长
        anchors_tmp = []
        clusters = kmeans(train_boxes, k=CLUSTERS)
        idx = clusters[:, 0].argsort()
        clusters = clusters[idx]
        # print(clusters)

        for j in range(CLUSTERS):
            anchor = [round(clusters[j][0] * 640, 2), round(clusters[j][1] * 640, 2)]
            anchors_tmp.append(anchor)
            print(f"Anchors:{anchor}")

        temp_accuracy = avg_iou(train_boxes, clusters) * 100
        print("Train_Accuracy:{:.2f}%".format(temp_accuracy))

        ratios = np.around(clusters[:, 0] / clusters[:, 1], decimals=2).tolist()
        ratios.sort()
        print("Ratios:{}".format(ratios))
        print(20 * "*" + " {} ".format(count) + 20 * "*")

        count += 1

        if temp_accuracy > best_accuracy:
            best_accuracy = temp_accuracy
            best_anchors = anchors_tmp
            best_ratios = ratios

    anchors_txt.write("Best Accuracy = " + str(round(best_accuracy, 2)) + '%' + "\r\n")
    anchors_txt.write("Best Anchors = " + str(best_anchors) + "\r\n")
    anchors_txt.write("Best Ratios = " + str(best_ratios))
    anchors_txt.close()

运行之后,你就能获得适合你数据集的best anchor了。填到哪个位置呢?
这就到下一步了,挑选模型和更换anchors,

3、配置yolov5骨干:
在models目录下,有5个yaml文件,模型大小从小到大分别是yolov5n.yaml, yolov5s.yaml,yolov5m.yaml,yolov5l.yaml,yolov5x.yaml

在这里插入图片描述
在此以yolov5s.yaml为例子。
我们打开,更改如下参数:
在这里插入图片描述
一个就是nc,类别,另一个就是anchors。
没了没了,终于配完了,一堆东西。。可以训练了。。

四、训练
进入github上,下载你要用的预训练模型。
https://github.com/ultralytics/yolov5/releases

然后配置train.py:
在这里插入图片描述
这三个是必须要按你自己的文件配置的。–weights是预训练模型地址,–cfg是你yolo骨干的选择cfg,–data是你的数据cfg。

其他的参数,你们想改的话,这边提供下意思:

epochs:迭代周期。
batch-size:一批次数量
cfg:存储模型结构的配置文件
data:存储训练、测试数据的文件
img-size:输入图片宽高
rect:进行矩形训练
resume:恢复最近保存的模型开始训练
nosave:仅保存最终checkpoint
notest:仅测试最后的epoch
evolve:进化超参数
bucket:gsutil bucket
cache-images:缓存图像以加快训练速度
weights:权重文件路径
name: 重命名results.txt to results_name.txt
device:cuda device, i.e. 0 or 0,1,2,3 or cpu
adam:使用adam优化
multi-scale:多尺度训练,img-size +/- 50%
single-cls:单类别的训练集

调整好了,python train.py就好了。

接下来就等着吧,时间久着呢,可以去玩一会儿。
你可以监视着进程。
tensorboard --logdir=runs可以看你的训练进度。
当然,我一般选择最后看。
在这里插入图片描述
看完感觉,收敛了。差不多。
测试测试,预测预测。

五、测试与预测。

测试你跟训练一样,改一下val.py里面的配置。
然后python val.py,就生成一堆,你需要的测试参数。我相信都是你要的。

关于预测,在detect.py文件里,继续改一下配置。
运行python detect.py就好啦,结果图和结果txt我就不附了。

最后会在runs文件夹下,生成:
在这里插入图片描述
就是你分别train的,val的,detect的结果。训练的权重就在这里面哟。

问题总结

大家有问题的可以提。我看到了会附在这儿。方便大家看。

不麻烦,这工程一点都不麻烦,嗯嗯嗯
结结结结结结结结结结结结结结结结结结结结结结结结结结结结结结结结结结结结结结结结结结结结结结结结结结结结结结结结结结结结结结结结结结结束!

版权声明:本文为CSDN博主「giganticpower」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/giganticpower/article/details/121135447

giganticpower

我还没有学会写个人说明!

暂无评论

发表评论

相关推荐

Yolo(3)(项目)Yolo v3 目标检测(85分类)

目录 基础理论 一、 读取文件 二、神经网络初始化 1、搭建神经网络 2、GPU加速 三、打开摄像头、按帧读取图像 四、向神经网络输入 五、获取神经网络输出 1、获取各层名称 2、获取输出层名称 3、获取输出层图像&#xff