bytetrack-demo

Ubuntu
python3.6
cuda=10.1

conda create -n bytetrack python=3.6
conda activate bytetrack

装好torch和torchvision
torch=1.7.0
torchvision=0.8.1
将作者给的代码克隆到本地后,把requirements.txt中torch和torchvision删去

cd ByteTrack
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple -r requirements.txt

修改setup.py中的代码:

with open("README.md", "r") as f:
    long_description = f.read()
修改为:
with open("README.md", "r", encoding='utf-8') as f:
    long_description = f.read()        
python setup.py develop
pip install cython
pip install "git+https://gitee.com/wsyin/cocoapi.git#subdirectory=PythonAPI"
pip install cython_bbox

下载作者训练好的模型文件,以bytetrack_s_mot17.pth.tar为例,下载好后放在根目录下新建的models文件夹内。
运行:

python tools/demo_track.py video -f exps/example/mot/yolox_s_mix_det.py -c ./models/bytetrack_s_mot17.pth.tar --path ./videos/palace.mp4 --fp16 --fuse --save_result

请添加图片描述
结果保存在yolox_outputs中
请添加图片描述

版权声明:本文为CSDN博主「yuchenovo」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/weixin_44894550/article/details/121940401

yuchenovo

我还没有学会写个人说明!

暂无评论

发表评论

相关推荐

目标检测中的先验框(Anchor)

什么是先验框?
了解过目标检测算法的朋友们肯定知道先验框(Anchor)的概念,那么什么是先验框,为什么要有先验框?若要解释这个问题,首先我们需要了解边界框回归原理。
b

YOLOv3学习——锚框和候选区域

YOLOv3学习之锚框和候选区域
单阶段目标检测模型YOLOv3
R-CNN系列算法需要先产生候选区域,再对候选区域做分类和位置坐标的预测,这类算法被称为两阶段目标检测算法。近几年,很多研究人员相继

YOLOv1损失函数代码详解

V1损失函数: 1、标注图像某位置有目标,预测为有>计算not response loss 未响应损失以及box框的坐标等的信息对应蓝色框和红色框
其代码为: # # # # # # # # # #