分类和目标检测Labelme标注教学

本期讲一下图像分类以及目标检测的Labelme标注教学。
Labelme的安装参见语义分割与实例分割 Labelme标注教学

1.图像分类

在这里插入图片描述
待分类的图片数据放在data_annotated文件夹下,flags.txt的内容如下:
在这里插入图片描述
进入data_annotated所在的文件夹,在命令行输入以下代码实现图像分类标注:

labelme data_annotated --flags flags.txt --nodata

在这里插入图片描述
标注好以后,目录如下:
在这里插入图片描述

2.目标检测

2.1数据标注

与语义分割一样,labels.txt内容如下:
在这里插入图片描述
__ignore__和_background_必须要有,其余是图像数据包含的类别。

进入data_annotated所在的文件夹,在命令行输入以下代码实现图像目标检测标注:

labelme data_annotated --labels labels.txt --nodata --autosave

在这里插入图片描述

2.2 标注格式转换

进入labelme\examples\bbox_detection 文件夹,有支持转换VOC 格式的代码

cd/d D:\chingi\labelme\examples\bbox_detection

# It generates:
#   - data_dataset_voc/JPEGImages
#   - data_dataset_voc/Annotations
#   - data_dataset_voc/AnnotationsVisualization
python ./labelme2voc.py data_annotated data_dataset_voc --labels labels.txt

在这里插入图片描述
转换格式后,会在data_dataset_voc 文件夹中会看到以下文件:
在这里插入图片描述

参考目录

https://github.com/wkentaro/labelme

版权声明:本文为CSDN博主「求则得之,舍则失之」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/weixin_43229348/article/details/123090065

我还没有学会写个人说明!

暂无评论

发表评论

相关推荐

yolov4,yolov5(学习记录)

输入端创新 1、Mosaic数据增强 yolov4中使用的Mosaic是参考2019年底提出的CutMix数据增强的方式,但CutMix只使用了两张图片进行拼接,而Mosaic数据增强则采用了4张图片&#xff0

Yolo v5 训练自己的数据集

Yolo v5 训练自己的数据集 前言 感谢各位大佬尤其是,博主:深度学习菜鸟,参考原文链接https://blog.csdn.net/qq_36756866/article/details/109