yolov5 权重

https://gitee.com/edclol/yolov5.git

https://www.bilibili.com/video/av328439400/

1.源码地址:https://github.com/ultralytics/yolov5
https://github.com/ultralytics/yolov3
2.yolo所有权重文件:
链接:https://pan.baidu.com/s/1Zk2Ksfl_v-apbRBQ_mqc6w
提取码:00mp
3.在mx150笔记本测试,v5速度优势不是很大,但是比tiny精度好得多,v5最大的亮点应该是移植到移动设备。
感谢u大佬的研究工作!哈哈

版权声明:本文为CSDN博主「edclol」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/qq_43716478/article/details/108818736

edclol

我还没有学会写个人说明!

暂无评论

发表评论

相关推荐

U-Net训练自己的数据集

1:数据准备
我说使用的数据是labelme制作的。json文件保存的是对应图片中所有目标的边界点坐标。
但是UNet训练却使用的是原始图像及其对应的二值化掩膜。就像下面这样: 所以需要把labelme输出的

打架暴力行为检测

有模型:115m
"model/vlstm_92.h5".
GitHub - manncodes/Violence-Detection-CNNLSTM: 6th Sem ML Mini 有模型:115m
tensorflow-gpu
G