文章目录[隐藏]
今天早早起来了
吃完饭就开始干活了
十点开始读论文
所以速读适合没有很长事假你的情况下,你只需要读懂大意就可以了
QAQ,bhys,以后一定精读,好好找找里面的专业名词整理下来呜呜呜
这次策略跟以前差一点,读一段就写一段的感想吧,这样就可以看到自己的意识流的变化(因为这些我也是第一次读,但是如果是再读的话有印象了就很难写出自己意识的变化)
abstract
上来就一个专业词汇salient object detection(SOD)显著目标检测,接下来一句应该是说他好,然后说他的缺点
(其实觉得读论文也是读自己的知识的扩充,同时可以提高自己阅读英文的能力)
接下来提了本文的主角CTD(complement trilateral decoder,直译一下就是互补的三边的decoder)
它有三个分支:Semantic Path, Spatial Path and Boundary Path.
底下说它好: improves the region accuracy and boundary quality
提供的两个vision:CTDNet-18 (11.82M, 180FPS) and CTDNet-50 (24.63M, 110FPS)
(对于小白来说,很多东西都不知道,比如这个11.82M是指参数量,FPS是 frame per second 处理速度)
底下有一个图片:对比性能的
不过这里小白有个问题(感谢大佬的解答
好了,没时间了,赶紧进intro
introduction
前面基本是将SOD的好处啥的
后来说抛弃了u-shape(abandon这个单词才是重点啊,第一次我眼睛的注意力根本没聚焦再这呜呜呜,还以为又是一个u-shape)
更注重语义信息
最后的那几点跟前面说的差不多。
更注重语义,将三种东西分开
method
时间不太够了马上又要干活了
赶紧把最重要的一个图给弄好
前面shared encoder是公用的
后面的decoder是分开了三个分支
按照 “coarse-fine-finer” 的策略(直译由粗到细再更细
(底下有一些具体的实现得留给精读了嘤嘤嘤
不过咱可以给一篇博客
sxc大佬的%%%%
https://zhuanlan.zhihu.com/p/449005045
conclusion
提出了一种基于的 Semantic Path、Spatial Path 和 Boundary Path 的互补三边解码器。这三个分支分别解决了 dilution of emantic information, loss of spatial, and absence of boundary information
为了方便在不同环境下的实际应用,作者提供了CTDNet-18 (11.82M, 180FPS) 和 CTDNet-50 (24.63M, 110FPS) 两个版本
emmmm
总觉得看论文没有一种醍醐灌顶的感觉QAQ,就没有那种“我怎么想不到呢”的感觉。
如果仅是想要快速get内容的话也就还可以吧,但是精读需要多看看具体实现,就是看着他的思路把代码写写,想想为啥要这么放那些层那些conv,emmmm
最近这几天忙过了,就要开始正式操作了
还差很远呀~~
版权声明:本文为CSDN博主「安之若醇」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/weixin_49599247/article/details/122768220
暂无评论