文章目录[隐藏]
简单来说就是深度神经网络处理问题不需要像传统模型那样,如同生产线般一步步去处理输入数据直至输出最后的结果(其中每一步处理过程都是经过人为考量设定好的 (“hand-crafted” function))。
与之相反,只需给出输入数据以及输出,神经网络就可以通过训练自动“学得”之前那些一步接一步的 “hand-crafted” functions。
换句话说端到端其实就是从一端(输入,原始数据)到另一端(输出,结果)的意思。也就是说,端到端意味着,模型的输入是原始的数据,模型的输出是我们想要的结果,在输入和输出的这个过程可以理解为一个黑盒子,是不需要我们手动干涉的。
例子:
参
考
R
C
N
N
这
几
篇
论
文
。
你
可
以
这
样
理
解
:
参考RCNN这几篇论文。你可以这样理解:
参考RCNN这几篇论文。你可以这样理解:
e
n
d
−
t
o
−
e
n
d
训
练
只
用
一
个
阶
段
,
如
:
F
a
s
t
e
r
R
−
C
N
N
end-to-end训练只用一个阶段,如:Faster R-CNN
end−to−end训练只用一个阶段,如:FasterR−CNN
而
R
−
C
N
N
、
F
a
s
t
R
−
C
N
N
训
练
需
要
分
为
多
个
阶
段
:
S
S
+
训
练
S
V
M
+
训
练
边
框
回
归
器
而R-CNN、Fast R-CNN训练需要分为多个阶段:SS+训练SVM+训练边框回归器
而R−CNN、FastR−CNN训练需要分为多个阶段:SS+训练SVM+训练边框回归器
版权声明:本文为CSDN博主「迪菲赫尔曼」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/weixin_43694096/article/details/121716679
暂无评论