[detr] End-to-End Object Detection with Transformers的github源码运行

仅作为记录,大量请跳过。

不可思议,只需两步就可以跑通目标检测的代码。

步骤

1、在coco官网下载数据集——解压缩——得到三个文件夹

在这里插入图片描述
解压缩后

在这里插入图片描述
在这里插入图片描述

可参考博主文章

linux用wget命令直接下载coco数据集

用7za x 解压缩大文件

构建软连接

linux移动文件

2、使用命令python -m torch.distributed.launch --nproc_per_node=1 --use_env main.py --coco_path /detr/datasets/coco_softlink,在detr根目录中-即main.py所在的目录运行,即可。

(博主修改了gpu个数nproc_per_node和coco路径coco_path

展示:

在这里插入图片描述
在这里插入图片描述

参考

感谢大佬博主文章:
传送门1
传送门2


传送门3
传送门4

***************************************

detr做分割

将zip解压缩到其他路径

unzip panoptic_annotations_trainval2017.zip -d /data_sda/detr/datasets/coco_seg_softlink

解压后,发现annotations文件夹里面,不仅有标注文件,也有真正的panoptic_train2017数据:

在这里插入图片描述

整理数据文件夹如下

重新解压缩和移动(移动压缩后的图片,是为了让panoptic_train2017文件夹下直接是png图片,而不是又嵌套一个panoptic_train2017文件夹)
在这里插入图片描述
数据集路径为/data_sda/detr/datasets/coco_seg_softlink

新建output文件夹

根据官网项目的说明,需要设置三个路径:

在这里插入图片描述

thus,在datasets文件夹下,新建output_box_model文件夹。

运行

python -m torch.distributed.launch --nproc_per_node=1 --use_env main.py --coco_path /data_sda/detr/datasets/coco_softlink  --coco_panoptic_path /data_sda/detr/datasets/coco_seg_softlink --dataset_file coco_panoptic --output_dir /data_sda/detr/datasets/output_box_model

(发现报错,(跟命令无关

在这里插入图片描述

百度查询,是缺少包的安装,使用pip install git+https://github.com/cocodataset/panopticapi.git安装(传送门

在这里插入图片描述

再次运行

即可。

展示

在这里插入图片描述
在这里插入图片描述

版权声明:本文为CSDN博主「captain飞虎大队」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/weixin_41529093/article/details/121879209

captain飞虎大队

我还没有学会写个人说明!

暂无评论

发表评论

相关推荐

目标检测:YOLO v1算法

YOLO V1 算法思想 将一幅图像分成s*s个网格,如果某个目标的中心落在这个网格中,则这个网络就负责预测这个目标。每个网格要预测B个bounding box,每个bounding box除了要预