首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

FCOS: Fully Convolutional One-Stage Object Detection

我们提出一种全卷积的单阶段目标检测器(FCOS),以逐像素预测的方式解决目标检测问题,类似于语义分割。几乎所有最先进的目标探测器,如RetinaNet、SSD、YOLOv3和Faster R-CNN,都依赖于预定义的锚盒。相比之下,我们提出的探测器FCOS是Anchor Free,以及proposal自由。通过消除预定义的锚盒集合,FCOS完全避免了与锚盒相关的复杂计算,例如在训练过程中计算IoU。更重要的是,我们还避免了所有与锚盒相关的超参数,这些超参数通常对最终检测性能非常敏感。通过唯一的后处理非最大抑制(NMS),使用ResNeXt-64x4d-101的FCOS在单模型和单尺度测试下,AP达到44.7%,超越了以往单阶段检测器。我们首次演示了一个更简单、更灵活的检测框架,从而提高了检测精度。我们希望所提出的FCOS框架可以作为许多其他实例级任务的简单而强大的替代方案。

02
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    Feature Selective Anchor-Free Module for Single-Shot Object Detection

    提出了一种简单有效的单阶段目标检测模块——特征选择无锚定(FSAF)模块。它可以插入到具有特征金字塔结构的单阶段检测器中。FSAF模块解决了传统基于锚点检测的两个局限性:1)启发式引导的特征选择;2)基于覆盖锚取样。FSAF模块的总体思想是将在线特征选择应用于多水平无锚分支的训练。具体来说,一个无锚的分支被附加到特征金字塔的每一层,允许在任意一层以无锚的方式进行盒编码和解码。在训练过程中,我们动态地将每个实例分配到最合适的特性级别。在推理时,FSAF模块可以通过并行输出预测与基于锚的分支联合工作。我们用无锚分支的简单实现和在线特性选择策略来实例化这个概念。在COCO检测轨道上的实验结果表明,我们的FSAF模块性能优于基于锚固的同类模块,而且速度更快。当与基于锚点的分支联合工作时,FSAF模块在各种设置下显著地改进了基线视网膜网,同时引入了几乎自由的推理开销。由此产生的最佳模型可以实现最先进的44.6%的映射,超过现有的COCO单单阶段检测器。

    02

    Dynamic Anchor Learning for Arbitrary-Oriented Object Detection

    任意方向的目标广泛出现在自然场景、航拍照片、遥感图像等,任意方向的目标检测受到了广泛的关注。目前许多旋转检测器使用大量不同方向的锚点来实现与ground truth框的空间对齐。然后应用交叉-联合(IoU)方法对正面和负面的候选样本进行训练。但是我们观察到,选择的正锚点回归后并不能总是保证准确的检测,而一些阴性样本可以实现准确的定位。这说明通过IoU对锚的质量进行评估是不恰当的,进而导致分类置信度与定位精度不一致。本文提出了一种动态锚学习(DAL)方法,利用新定义的匹配度综合评价锚的定位潜力,进行更有效的标签分配过程。这样,检测器可以动态选择高质量的锚点,实现对目标的准确检测,缓解分类与回归的分歧。在新引入的DAL中,我们只需要少量的水平锚点就可以实现对任意方向目标的优越检测性能。在三个遥感数据集HRSC2016、DOTA、UCAS-AOD以及一个场景文本数据集ICDAR 2015上的实验结果表明,与基线模型相比,我们的方法取得了实质性的改进。此外,我们的方法对于使用水平边界盒的目标检测也是通用的。

    01

    Feature Selective Anchor-Free Module for Single-Shot Object Detection(文献阅读)

    目标的多尺度变化在目标检测中是一个很重要的问题,利用特征层多尺度(或anchor多尺度)是一种有效的解决方案。Anchor box用于将所有可能的Instance box离散为有限数量的具有预先定义的位置、尺度和纵横比的box。Instance box和Anchor box基于IOU重叠率来匹配。当这种方法集成到特征金字塔的时候,大的anchor通常和上部的特征相映射,小的anchor通常和下部的特征相映射,如下图所示。这是基于启发式的,即上层特征图有更多的语义信息适合于检测大的目标,而下层特征图有更多的细粒度细节适合于检测小目标。然而,这种设计有两个局限性:1)启发式引导的特征选择;2)基于覆盖锚取样。在训练过程中,每个实例总是根据IoU重叠匹配到最近的锚盒。而锚框则通过人类定义的规则(如框的大小)与特定级别的功能映射相关联。因此,为每个实例选择的特性级别完全基于自组织启发式。例如,一个汽车实例大小50×50像素和另一个类似的汽车实例规模60×60像素可能分配到两个不同的特征层,而另一个40×40像素大小的实例可能被分配到和50x50相同的特征层,如下图所示。

    02

    Single-Shot Refinement Neural Network for Object Detection

    对于目标检测,两阶段方法(如Faster R-CNN)的准确率最高,而单阶段方法(如SSD)的效率较高。为了在继承两种方法优点的同时克服它们的缺点,本文提出了一种新的单阶段检测器,称为RefineDet,它比两阶段方法具有更好的精度,并保持了与单阶段方法相当的效率。RefineDet由两个相互连接的模块组成,即锚点细化模块和目标检测模块。具体来说,前者的目的是(1)过滤掉负锚点,减少分类器的搜索空间,(2)粗调锚点的位置和大小,为后续回归器提供更好的初始化。后一个模块以改进后的锚为输入,进一步改进回归,预测多类标签。同时,我们设计了一个传输连接块来传输锚点细化模块中的特征,以预测目标检测模块中目标的位置、大小和类标签。多任务丢失功能使我们能够以端到端方式训练整个网络。在PASCAL VOC 2007、PASCAL VOC 2012和MS COCO上的大量实验表明,RefineDet能够以高效的方式实现最先进的检测精度。

    01

    IENet: Interacting Embranchment One Stage Anchor Free Detector

    航空图像中的目标检测是一项具有挑战性的任务,因为它缺乏可见的特征和目标的不同方向。目前,大量基于R-CNN框架的检测器在通过水平边界盒(HBB)和定向边界盒(OBB)预测目标方面取得了显著进展。然而,单级无锚解仍然存在开放空间。提出了一种基于逐像素预测检测器的航空图像定向目标单级无锚检测器。我们通过开发一个具有自我注意机制的分支交互模块来融合来自分类和框回归分支的特征,从而使它成为可能。在角度预测中采用几何变换,使预测网络更易于管理。我们还引入了一种比正多边形借条更有效的借条损耗来检测OBB。在DOTA和HRSC2016数据集上对所提出的方法进行了评估,结果表明,与最先进的检测器相比,我们所提出的IENet具有更高的OBB检测性能。

    01

    ICCV2023-AlignDet:在各种检测器的所有模块实现无监督预训练

    大规模预训练后再进行下游微调的方法已经被广泛地应用于各种目标检测算法中。在本文中,我们揭示了目前实践中预训练和微调过程之间存在的数据、模型和任务方面的差异,这些差异隐式地限制了检测器的性能、泛化能力和收敛速度。为此,我们提出了AlignDet方法,这是一个通用的预训练框架,可以适配各种现有检测器,以减轻这些差异。AlignDet将预训练过程分解为两个阶段,即图像域预训练阶段和框域预训练阶段。图像域预训练优化检测骨干网络以捕获整体的视觉抽象,框域预训练学习实例级语义和任务感知概念以初始化骨干网络之外的部分。通过融合自监督预训练的骨干网络,可以实现在各种检测器中所有模块进行无监督预训练。如图1所示,大量实验表明,AlignDet可以实现对各种协议进行显著改进,如检测算法、模型骨干网络、数据设置和训练计划。例如,在更少的训练轮数下,AlignDet分别为FCOS提高了5.3 mAP,RetinaNet提高了2.1 mAP,Faster R-CNN提高了3.3 mAP,DETR提高了2.3 mAP。

    03

    DSNet:Joint Semantic Learning for Object

    近五十年来,基于卷积神经网络的目标检测方法得到了广泛的研究,并成功地应用于许多计算机视觉应用中。然而,由于能见度低,在恶劣天气条件下检测物体仍然是一项重大挑战。在本文中,我们通过引入一种新型的双子网(DSNet)来解决雾环境下的目标检测问题。该双子网可以端到端训练并共同学习三个任务:能见度增强、目标分类和目标定位。通过包含检测子网和恢复子网两个子网,DSNet的性能得到了完全的提高。我们采用RetinaNet作为骨干网络(也称为检测子网),负责学习分类和定位目标。恢复子网通过与检测子网共享特征提取层,采用特征恢复模块增强可见性来设计。实验结果表明我们的DSNet在合成的有雾数据集上达到了50.84%的mAP,在公开的有雾自然图像数据集上达到了41.91%的精度。性能优于许多最先进的目标检测器和除雾和检测方法之间的组合模型,同时保持高速。

    02
    领券