bytetrack-demo

Ubuntu
python3.6
cuda=10.1

conda create -n bytetrack python=3.6
conda activate bytetrack

装好torch和torchvision
torch=1.7.0
torchvision=0.8.1
将作者给的代码克隆到本地后,把requirements.txt中torch和torchvision删去

cd ByteTrack
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple -r requirements.txt

修改setup.py中的代码:

with open("README.md", "r") as f:
    long_description = f.read()
修改为:
with open("README.md", "r", encoding='utf-8') as f:
    long_description = f.read()        
python setup.py develop
pip install cython
pip install "git+https://gitee.com/wsyin/cocoapi.git#subdirectory=PythonAPI"
pip install cython_bbox

下载作者训练好的模型文件,以bytetrack_s_mot17.pth.tar为例,下载好后放在根目录下新建的models文件夹内。
运行:

python tools/demo_track.py video -f exps/example/mot/yolox_s_mix_det.py -c ./models/bytetrack_s_mot17.pth.tar --path ./videos/palace.mp4 --fp16 --fuse --save_result

请添加图片描述
结果保存在yolox_outputs中
请添加图片描述

版权声明:本文为CSDN博主「yuchenovo」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/weixin_44894550/article/details/121940401

yuchenovo

我还没有学会写个人说明!

暂无评论

发表评论

相关推荐

yolo-fastest模型

两个关于yolo-fastest的资料 https://github.com/dog-qiuqiu/Yolo-FastestV2/ https://github.com/dog-qiuqiu/Yolo-Fastest

手把手教你实现YOLOv3 (一)

1. 引言 最近整理了YOLO系列相关论文阅读笔记,发现仅仅靠阅读论文还是有很多内容一知半解,吃得不是很透彻. 尽管网络上有很多博客都在讲解,但是很多实现细节细究起来还是有些困难. 俗话说的好: Talk is cheap. Show me

目标检测入坑指南3:VGGNet神经网络

学了蛮久的目标检测了,但是有好多细节总是忘或者模棱两可,感觉有必要写博客记录一下学习笔记和一些心得,既可以加深印象又可以方便他人。博客内容集成自各大学习资源,所以图片也就不加水印了&#xf

Yolov3代码实现

voc数据集构建文件 import sys import xml.etree.ElementTree as ET import config.yolov3_config_voc as cfg import os from tqdm impor