Labelme标注的图像数据做成VOC格式的数据集(用于实例分割的数据集格式)

参考官网代码:

labelme/examples/instance_segmentation at v3.11.2 · wkentaro/labelme (github.com)icon-default.png?t=LBL2https://github.com/wkentaro/labelme/tree/v3.11.2/examples/instance_segmentation

copy 图中的Labelme2voc.py

在Anaconda Prompt里当前目录下运行指令:

python labelme2voc.py NoObeject data_dataset_voc --labels labels.txt

NoObeject里放的是images和json文件,需要根据自己存放图像数据的文件夹名字进行修改。

data_dataset_voc 是新生成的voc数据集,

labels.txt 里存放自己标注数据的名字,这里1 和2是我自己的标签,你需要替换成你的标签。

生成的dataset voc长这样:data_dataset_voc 文件夹下有这么多文件夹和文件。 

JPEGImages文件夹下存放原始图像。

 

SegmentationClassPNG里存放实例分割的图像,红色和绿色是我们标注的物体。这里的图像是我们之后训练要用到的。

 

 

 

 

 

 

 这里我们就结束了,利用Labelme标注的数据生成了用于实例分割的VOC数据集 。

这里提示一下:用于实例分割的VOC数据集与目标检测的VOC数据集不一样。

如果想要用Labelme标注的数据做成目标检测的VOC数据集

参考:https://github.com/wkentaro/labelme/tree/v3.11.2/examples/bbox_detection

本博客参考视频:感谢UP主的分享

【labelme】13分钟教会你使用labelme的超详细教程_哔哩哔哩_bilibiliicon-default.png?t=LBL2https://www.bilibili.com/video/BV1xT4y1j7A9

版权声明:本文为CSDN博主「一直开心」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/wenyunick/article/details/122210402

一直开心

我还没有学会写个人说明!

暂无评论

发表评论

相关推荐

Meta-DETR | 图像级“元”学习提升目标检测精度

计算机视觉研究院专栏作者:Edison_GOne-shot目标检测旨在通过几个标注的样本来检测新的目标。之前的工作已经证明了元学习是一个很有前途的解决方案,它们中的大多数基本上是通过解决在区域上的元学习检测来进行分类

AP AR mAP ROC AUC(目标检测)

禁止转载!在做目标检测任务的时候,通常会制定规则来评估性能,就如下图所示,后面会慢慢道来其中的原理。 混淆矩阵中 TP、TN、FP、FN
在目标检测中,通常以IoU阈值作为

瑕疵检测(深度学习)

与通用目标检测的区别
相较与整张图片瑕疵区域的占比一般非常小,Faster R-CNN等检测模型对小物体检测不够好
深度学习从低层到高层不断去提炼高层语义信息,层数的增大细节的信息丢失得越多,对于缺