Ultra-Fast-Lane-Detection-master
摘要:
现代的车道检测方法主要将车道检测视为像素分割问题, 难以解决具有挑战性的场景和速度问题。受人类感知的启发, 严重遮挡和极端光照条件下的车道识别主要基于上下文信息和全局信息。 基于这一观察结果,我们提出了一种新颖、简单但有效的方案, 旨在极快的速度和极具挑战性的场景。 具体来说,我们将车道检测过程视为一个使用全局特征的基于行的选择问题。 在行选择的帮助下,我们的公式可以显著降低计算成本。 在全局特征上使用一个大的接收域,我们也可以处理具有挑战性的场景。 此外,在此基础上,我们还提出了一种结构损失模型来明确地模拟车道的结构。 在两个车道检测基准数据集上的大量实验表明,我们的方法可以在速度和精度方面达到最优的性能。 轻量版甚至可以在同样的分辨率下达到每秒300帧以上,这比以前最先进的方法至少快4倍。 我们的代码可以在https://github.com/cfzd/Ultra-Fast-Lane-Detection查到
复现过程:
一、环境准备
Ubuntu18.04.3、python3(我用的是服务器,和Ubuntu操作一样)、anaconda
二、创建虚拟环境
1进入https://github.com/cfzd/Ultra-Fast-Lane-Detection把代码下载下来,解压放到根目录中
2然后 cd /home/hwang/Desktop/Ultra-Fast-Lane-Detection-master/(进入到你自己的文件夹目录)
3接下来创建一个虚拟环境
为pytorch创建一个虚拟环境,这是推荐的做法,这样在创建其他环境如tensorflow时,就不会互相冲突。在终端输入:
conda create -n lane-det python=3.7 -y
这就创建了一个名为pytorch,python版本为3.6的虚拟环境。于是我们可以把Pytorch安装在这个环境下面。首先我们激活这个环境:source activate lane-det
conda create -n lane-det python=3.7 -y
conda activate lane-det
4.安装依赖
如果你没有安装pytorch的话先安装pytorch
conda install pytorch torchvision cudatoolkit=10.1 -c pytorch
接下来安装环境依赖
pip install -r requirements.txt
这一步也就是安装下载下来的文件夹中的requirements.txt文件中的一些环境依赖,如果有些环境没有装上,就单独的再装一次。如conda install …/pip install …
数据集的准备:
我这里用的是官方数据集tusimple。
百度网盘链接链接:https://pan.baidu.com/s/16PXWMu261cmj0GsxS4Bd4Q 提取码:l3dd
在Ultra-Fast-Lane-Detection-master/文件夹下新建TUSIMPLEROOT用来存放数据集
将下载的数据集放到新建的TUSIMPLEROOT中!
TUSIMPLEROOT文件夹存放的内容如图:[这里的.txt文件是之后生成的现在先不用管]
clips文件夹中的内容是
对于Tusimple,没有提供分段注释,因此我们需要从json注释生成分段。
python scripts/convert_tusimple.py --root $TUSIMPLEROOT
$TUSIMPLEROOT代表你自己创建的文件夹TUSIMPLEROOT的路径。通过这一步将会产生上图中的两个.txt文件
开始训练:
1.在Ultra-Fast-Lane-Detection-master/文件夹下新建log文件夹用来存放日志文件
2.修改路径
进入configs双击打开tusimple.py对路径进行更改如图有两处
3.这时候就可以开始训练了
python train.py configs/tusimple.py
4.训练完成开始测试
python test.py configs/tusimple.py --test_model path_to_tusimple_18.pth --test_work_dir ./tmp
path_to_tusimple_18.pth这个是模型的路径
5.测试结果
版权声明:本文为CSDN博主「小祥子ovo」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/weixin_46716951/article/details/112650165
暂无评论