分类和目标检测Labelme标注教学

本期讲一下图像分类以及目标检测的Labelme标注教学。
Labelme的安装参见语义分割与实例分割 Labelme标注教学

1.图像分类

在这里插入图片描述
待分类的图片数据放在data_annotated文件夹下,flags.txt的内容如下:
在这里插入图片描述
进入data_annotated所在的文件夹,在命令行输入以下代码实现图像分类标注:

labelme data_annotated --flags flags.txt --nodata

在这里插入图片描述
标注好以后,目录如下:
在这里插入图片描述

2.目标检测

2.1数据标注

与语义分割一样,labels.txt内容如下:
在这里插入图片描述
__ignore__和_background_必须要有,其余是图像数据包含的类别。

进入data_annotated所在的文件夹,在命令行输入以下代码实现图像目标检测标注:

labelme data_annotated --labels labels.txt --nodata --autosave

在这里插入图片描述

2.2 标注格式转换

进入labelme\examples\bbox_detection 文件夹,有支持转换VOC 格式的代码

cd/d D:\chingi\labelme\examples\bbox_detection

# It generates:
#   - data_dataset_voc/JPEGImages
#   - data_dataset_voc/Annotations
#   - data_dataset_voc/AnnotationsVisualization
python ./labelme2voc.py data_annotated data_dataset_voc --labels labels.txt

在这里插入图片描述
转换格式后,会在data_dataset_voc 文件夹中会看到以下文件:
在这里插入图片描述

参考目录

https://github.com/wkentaro/labelme

版权声明:本文为CSDN博主「求则得之,舍则失之」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/weixin_43229348/article/details/123090065

我还没有学会写个人说明!

暂无评论

发表评论

相关推荐

无人驾驶目标检测算法测试

目的 在无人驾驶项目开发中测试了几个目标检测算法模型,使用的数据是速腾聚餐32线激光雷达采集得到的点云,使用的显卡是RTX2060,采集的场地是停车场和道路环境。 1 PointPillars 使用的

CVPR2021: Sparse R-CNN新的目标检测模型

今天我们将讨论由四个机构的研究人员提出的一种方法,其中一个是字节跳动人工智能实验室。他们为我们提供了一种新的方法,称为稀疏R-CNN(不要与 Sparse R-CNN 混淆,后者在 3D 计算机视觉任务

深度学习_目标检测_“YOLOv5”详解(持续更新)

我最近对很火的元宇宙及其衍生概念进行了思考,虽然现在谈元宇宙落地还为时尚早,但是根据这个愿景反推回来很多的技术趋势和未来的发展方向还是值得关注的。下面是我的公众号原文:【AI行业进展研究与商业价值分析】