CVPR2021 论文大盘点:全景分割论文汇总(共15篇)

编辑|极市平台
本文原创首发极市平台,转载请获得授权并标明出处。

从 CVPR2021 公布结果开始,极市就一直对最新的 CVPR2021 进行分类汇总,共分为33个大类,包含检测、分割、估计、跟踪、医学影像、文本、人脸、图像视频检索、图像处理、三维视觉等多个方向。所有关于CVPR的论文整理都汇总在了我们的Github项目中,该项目目前已收获7500 Star。

Github项目地址(点击阅读原文即可跳转):

https://github.com/extreme-assistant/CVPR2021-Paper-Code-Interpretation

此前,我们对XXX进行了盘点,在本文中,我们将对CVPR2021接收论文中的16篇全景分割论文进行盘点和梳理接下来也会继续进行其他领域的 CVPR2021 论文盘点。如有遗漏或错误,欢迎大家在评论区补充指正。

注:在 极市平台 回复关键词“CVPR21分割”,即可获得以下论文打包下载。

论文一

Fully Convolutional Networks for Panoptic Segmentation(Oral)

标题:用于全景分割的全卷积网络

论文:https://arxiv.org/abs/2012.00720

代码:https://github.com/Jia-Research-Lab/PanopticFCN

本文提出了一个概念简单、强大且有效的全景分割框架,称为全景FCN。 本文方法旨在统一的全卷积管道中表示和预测前景目标和背景目标。特别的,全景FCN将每个实例编码到一个特定的内核中,并直接通过卷积生成预测。如下图所示,这种方法可以在在统一的工作流中分别满足实例感知以及语义一致性。全景FCN的核心思想是:在全卷积的管道中使用生成的内核均匀地表示和预测。在没有定位或实例分离的额外框的情况下,本文所提出的方法在具有单尺度输入的 COCO、Cityscapes 和 Mapillary Vistas 数据集上以高效率优于以前的基于框和无框模型。

全景FCN与过往研究的不同主要体现在两个方面:(1)在可数目标生成方面,全景FCN输出密集预测,然后利用NMS去除重叠,设计框架生成实例感知内核并直接生成每个特定实例;(2)与传统的基于FCN的不可数目标预测方法相比,即以逐像素的方式选择最可能的类别,全景FCN将全局上下文聚合到语义一致的内核中,并以整体实例的方式呈现现有语义类的结果。

全文链接:CVPR2021 论文大盘点:全景分割论文汇总(共15篇)

关注极市平台公众号,获取最新CV干货

在这里插入图片描述

版权声明:本文为CSDN博主「极市平台」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/Extremevision/article/details/121561664

极市平台

我还没有学会写个人说明!

暂无评论

发表评论

相关推荐

MMDetection目标检测实例

MMDetection目标检测实例 MMDetection基于cooc数据集,Faster-rcnn方法的目标识别训练 前言
接触深度学习目标检测工具箱MMDetection将近一周了,学习过程十分艰难&#xff0

使用PyTorch实现目标检测与跟踪

欢迎关注 “小白玩转Python”,发现更多 “有趣”引言在昨天的文章中,我们介绍了如何在PyTorch中使用您自己的图像来训练图像分类器,然后使用它来进行图像识别。本文将展示如何使用预训练的分类器检测

目标检测中的先验框(Anchor)

什么是先验框?
了解过目标检测算法的朋友们肯定知道先验框(Anchor)的概念,那么什么是先验框,为什么要有先验框?若要解释这个问题,首先我们需要了解边界框回归原理。
b