分类和目标检测Labelme标注教学

本期讲一下图像分类以及目标检测的Labelme标注教学。
Labelme的安装参见语义分割与实例分割 Labelme标注教学

1.图像分类

在这里插入图片描述
待分类的图片数据放在data_annotated文件夹下,flags.txt的内容如下:
在这里插入图片描述
进入data_annotated所在的文件夹,在命令行输入以下代码实现图像分类标注:

labelme data_annotated --flags flags.txt --nodata

在这里插入图片描述
标注好以后,目录如下:
在这里插入图片描述

2.目标检测

2.1数据标注

与语义分割一样,labels.txt内容如下:
在这里插入图片描述
__ignore__和_background_必须要有,其余是图像数据包含的类别。

进入data_annotated所在的文件夹,在命令行输入以下代码实现图像目标检测标注:

labelme data_annotated --labels labels.txt --nodata --autosave

在这里插入图片描述

2.2 标注格式转换

进入labelme\examples\bbox_detection 文件夹,有支持转换VOC 格式的代码

cd/d D:\chingi\labelme\examples\bbox_detection

# It generates:
#   - data_dataset_voc/JPEGImages
#   - data_dataset_voc/Annotations
#   - data_dataset_voc/AnnotationsVisualization
python ./labelme2voc.py data_annotated data_dataset_voc --labels labels.txt

在这里插入图片描述
转换格式后,会在data_dataset_voc 文件夹中会看到以下文件:
在这里插入图片描述

参考目录

https://github.com/wkentaro/labelme

版权声明:本文为CSDN博主「求则得之,舍则失之」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/weixin_43229348/article/details/123090065

我还没有学会写个人说明!

暂无评论

发表评论

相关推荐

两阶段目标检测的开山奠基之作:R-CNN

首次将深度学习和卷积神经网络用于目标检测并取得显著性能提升。 图像分类、定位、目标检测、语义分割、实例分割、关键点检测(关节等等输出点的坐标) 图像分类(输入图像输出类别)目标检测&#xf

FasterRcnn-Resnet50-FPN对图像的处理过程

如题。感觉物体检测框架还是比较复杂的,在这里理一下,一张图像从输入到输出,究竟被做了哪些操作。 警告:可能存在大量不知道我在说啥的状况,这个博客针对自己的初步理解&#xff