CVPR2021 论文大盘点:全景分割论文汇总(共15篇)

编辑|极市平台
本文原创首发极市平台,转载请获得授权并标明出处。

从 CVPR2021 公布结果开始,极市就一直对最新的 CVPR2021 进行分类汇总,共分为33个大类,包含检测、分割、估计、跟踪、医学影像、文本、人脸、图像视频检索、图像处理、三维视觉等多个方向。所有关于CVPR的论文整理都汇总在了我们的Github项目中,该项目目前已收获7500 Star。

Github项目地址(点击阅读原文即可跳转):

https://github.com/extreme-assistant/CVPR2021-Paper-Code-Interpretation

此前,我们对XXX进行了盘点,在本文中,我们将对CVPR2021接收论文中的16篇全景分割论文进行盘点和梳理接下来也会继续进行其他领域的 CVPR2021 论文盘点。如有遗漏或错误,欢迎大家在评论区补充指正。

注:在 极市平台 回复关键词“CVPR21分割”,即可获得以下论文打包下载。

论文一

Fully Convolutional Networks for Panoptic Segmentation(Oral)

标题:用于全景分割的全卷积网络

论文:https://arxiv.org/abs/2012.00720

代码:https://github.com/Jia-Research-Lab/PanopticFCN

本文提出了一个概念简单、强大且有效的全景分割框架,称为全景FCN。 本文方法旨在统一的全卷积管道中表示和预测前景目标和背景目标。特别的,全景FCN将每个实例编码到一个特定的内核中,并直接通过卷积生成预测。如下图所示,这种方法可以在在统一的工作流中分别满足实例感知以及语义一致性。全景FCN的核心思想是:在全卷积的管道中使用生成的内核均匀地表示和预测。在没有定位或实例分离的额外框的情况下,本文所提出的方法在具有单尺度输入的 COCO、Cityscapes 和 Mapillary Vistas 数据集上以高效率优于以前的基于框和无框模型。

全景FCN与过往研究的不同主要体现在两个方面:(1)在可数目标生成方面,全景FCN输出密集预测,然后利用NMS去除重叠,设计框架生成实例感知内核并直接生成每个特定实例;(2)与传统的基于FCN的不可数目标预测方法相比,即以逐像素的方式选择最可能的类别,全景FCN将全局上下文聚合到语义一致的内核中,并以整体实例的方式呈现现有语义类的结果。

全文链接:CVPR2021 论文大盘点:全景分割论文汇总(共15篇)

关注极市平台公众号,获取最新CV干货

在这里插入图片描述

版权声明:本文为CSDN博主「极市平台」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/Extremevision/article/details/121561664

极市平台

我还没有学会写个人说明!

暂无评论

发表评论

相关推荐

CVPR2021: Sparse R-CNN新的目标检测模型

今天我们将讨论由四个机构的研究人员提出的一种方法,其中一个是字节跳动人工智能实验室。他们为我们提供了一种新的方法,称为稀疏R-CNN(不要与 Sparse R-CNN 混淆,后者在 3D 计算机视觉任务

如何使用Albumentations 对目标检测任务做增强

目录 1、导入所需的库 2、定义可视化函数显示图像上的边界框和类标签 3、获取图像和标注 4、使用RandomSizedBBoxSafeCrop保留原始图像中的所有边界框 5、定义增强管道 6、输入用于增强的图像和边框 7、其他不

实战深度学习目标检测:RCNN (1)

深度学习目标检测:RCNN 什么是目标检测?目标检测主要是明确从图中看到了什么物体?他们在什么位置。传统的目标检测方法一般分为三个阶段:首先在给定的图像上选择一些候选的区域&#xff0c