CVPR2021 论文大盘点:全景分割论文汇总(共15篇)

编辑|极市平台
本文原创首发极市平台,转载请获得授权并标明出处。

从 CVPR2021 公布结果开始,极市就一直对最新的 CVPR2021 进行分类汇总,共分为33个大类,包含检测、分割、估计、跟踪、医学影像、文本、人脸、图像视频检索、图像处理、三维视觉等多个方向。所有关于CVPR的论文整理都汇总在了我们的Github项目中,该项目目前已收获7500 Star。

Github项目地址(点击阅读原文即可跳转):

https://github.com/extreme-assistant/CVPR2021-Paper-Code-Interpretation

此前,我们对XXX进行了盘点,在本文中,我们将对CVPR2021接收论文中的16篇全景分割论文进行盘点和梳理接下来也会继续进行其他领域的 CVPR2021 论文盘点。如有遗漏或错误,欢迎大家在评论区补充指正。

注:在 极市平台 回复关键词“CVPR21分割”,即可获得以下论文打包下载。

论文一

Fully Convolutional Networks for Panoptic Segmentation(Oral)

标题:用于全景分割的全卷积网络

论文:https://arxiv.org/abs/2012.00720

代码:https://github.com/Jia-Research-Lab/PanopticFCN

本文提出了一个概念简单、强大且有效的全景分割框架,称为全景FCN。 本文方法旨在统一的全卷积管道中表示和预测前景目标和背景目标。特别的,全景FCN将每个实例编码到一个特定的内核中,并直接通过卷积生成预测。如下图所示,这种方法可以在在统一的工作流中分别满足实例感知以及语义一致性。全景FCN的核心思想是:在全卷积的管道中使用生成的内核均匀地表示和预测。在没有定位或实例分离的额外框的情况下,本文所提出的方法在具有单尺度输入的 COCO、Cityscapes 和 Mapillary Vistas 数据集上以高效率优于以前的基于框和无框模型。

全景FCN与过往研究的不同主要体现在两个方面:(1)在可数目标生成方面,全景FCN输出密集预测,然后利用NMS去除重叠,设计框架生成实例感知内核并直接生成每个特定实例;(2)与传统的基于FCN的不可数目标预测方法相比,即以逐像素的方式选择最可能的类别,全景FCN将全局上下文聚合到语义一致的内核中,并以整体实例的方式呈现现有语义类的结果。

全文链接:CVPR2021 论文大盘点:全景分割论文汇总(共15篇)

关注极市平台公众号,获取最新CV干货

在这里插入图片描述

版权声明:本文为CSDN博主「极市平台」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/Extremevision/article/details/121561664

极市平台

我还没有学会写个人说明!

暂无评论

发表评论

相关推荐

Meta-DETR | 图像级“元”学习提升目标检测精度

计算机视觉研究院专栏作者:Edison_GOne-shot目标检测旨在通过几个标注的样本来检测新的目标。之前的工作已经证明了元学习是一个很有前途的解决方案,它们中的大多数基本上是通过解决在区域上的元学习检测来进行分类

AP AR mAP ROC AUC(目标检测)

禁止转载!在做目标检测任务的时候,通常会制定规则来评估性能,就如下图所示,后面会慢慢道来其中的原理。 混淆矩阵中 TP、TN、FP、FN
在目标检测中,通常以IoU阈值作为

U-Net训练自己的数据集

1:数据准备
我说使用的数据是labelme制作的。json文件保存的是对应图片中所有目标的边界点坐标。
但是UNet训练却使用的是原始图像及其对应的二值化掩膜。就像下面这样: 所以需要把labelme输出的