Anchor free系列检测器之YOLOX源码逐行讲解篇(七)--Head中loss的计算及反传

整个YOLOX源码的学习一定要按照以下顺序才能整体串起来:Backbone->FPN->Head->->数据读入源码->数据增强源码->loss计算源码->simOTA源码->demo.py脚本->train.py脚本。而该系列博文也遵循该顺序来逐行分析代码。注意是逐行,包括python语法,tensor维度和逐行代码的作用及应用。其实网络结构本没有任何神秘的地方,都是一些模块堆叠起来的,你完全可以没有任何理由的修改任何一个模块。看完这个系列后自己完全可以随便的去对任何网络结构做手脚,而不仅仅局限于一个调参者。

本篇讲的是YOLOX中Head的loss计算及反传,是YOLOX最核心的部分。本节图比较少,代码量很足。首先将代码定位到yolox\models\yolo_head.py橘色框,我们从这里开始:

版权声明:本文为CSDN博主「@会飞的毛毛虫」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/qq_42308217/article/details/122936065

我还没有学会写个人说明!

暂无评论

发表评论

相关推荐

YOLOX安装指南

最近ubuntu系统跑几下就死机,怕了怕了,后面会把以前安装好的教程都发在csdn上。以免后面系统崩溃后又要重新装过而不知所措。 前段时间yolov5横空出世,然后又多出来了各种比它好的yolo算法。本

YOLOX环境的安装配置部署

YOLOX环境的安装配置部署 旷世的最新作品,采用Anchor-free,效果所有yolo系列。本文主要记录该模型如何在C环境下进行部署。 采用的方案是TensorRT,一种NVIDIA提供的推理部

mmdetection、yolo系列等目标检测任务的学习率调度器

学习率(Learning rate,简称lr)作为目标检测这类监督学习中最重要的超参,其决定着分类函数或边界框回归函数能否收敛到局部最小值以及何时收敛到最小值。正确的学习率可使目标函数在合适的时间内收敛到局部最优。同时,学习率可以在训练的过程中