首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

目标检测经典工作:RetinaNet和它背后的Focal Loss

Focal Loss为了同时调节正、负样本与难易样本,提出了如下所示的损失函数。 ? 其中 ? 用于控制正负样本的权重,当其取比较小的值来降低负样本(多的那类样本)的权重; ?...可以看出,对于Focal loss损失函数,有如下3个属性: 与平衡交叉熵类似,引入了αt权重,为了改善正负样本的不均衡,可以提升一些精度。 ? 是为了调节难易样本的权重。...接近于1,其损失几乎不受影响;当pt接近于1时,表明其分类预测较好,是简单样本, ? 接近于0,因此其损失被调低了。 γ是一个调制因子,γ越大,简单样本损失的贡献会越低。...RetinaNet的框架整体是ResNet+FPN+FCN,它使用ResNet作为backbone来提取图像特征,然后从中抽取5层特征层来构建特征金字塔网络(FPN: feature pyramid network...,只不过RPN采用简单的sampling方法训练,而RetinaNet采用FL; 相比SSD,SSD也是利用多尺度特征,不过RetinaNet是FPN,SSD的anchor与Faster R-CNN类似

1.6K20
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    MMDetection框架下的常见目标检测与分割模型综述与实践指南

    其简要概述为:深入分析了极度不平衡的正负(前景背景)样本比例导致 one-stage 检测器精度低于 two-stage 检测器,基于上述分析,提出了一种简单但是非常实用的 Focal Loss 焦点损失函数...RetinaNet网络主要由ResNet作为主干网络、FPN(特征金字塔网络)作为 neck、以及分类和边框回归子网络作为head组成。...由于骨架本身没有限制,MMDetection 中目前提供的预训练权重所涉及的骨架网络包括:ResNet50-Caffe、ResNet50-Pytorch、ResNet101-Caffe、ResNet101...例如,用户可以自定义Backbone网络、调整锚点生成策略、选择不同的损失函数等。...基本配置和使用代码# 配置文件路径config_file = 'configs/retinanet/retinanet_r50_fpn_1x_coco.py'# 模型权重路径checkpoint_file

    33410

    R-FCN、Mask RCNN、YoLo、SSD、FPN、RetinaNet…你都掌握了吗?一文总结目标识别必备经典模型(二)

    首先,Mask R-CNN采用ResNet-50或者ResNet-101作为特征提取器提取特征,然后采用FPN(特征金字塔网络)的结构来进行特征融合。...网络头结构 最后,整个Mask RCNN网络结构包含两部分,一部分是backbone用来提取特征(上文提到的采用ResNet-50或者ResNet-101作为特征提取器提取特征),另一部分是head用来对每一个...SSD网络对于每个stage输出的特征图都进行边框回归和分类处理,SSD的损失包括类别损失和定位损失,其中,类别损失L_conf又分为正样本和负样本类别损失,联合损失函数如下: 为了提高检测准确度...样本对损失函数的贡献会随着置信度的提高而降低,因此,尽管one-stage检测存在海量容易分类的背景样本,但是由于其置信度高,所以其对损失函数的占比小,因此不会主导训练过程,从而解决了one-stage...为了描述方便,定义p_t 为: 进一步,解决正负样本不均衡的方法是在交叉熵损失函数中加入加权因子α,交叉熵损失函数改写为: 通过调节加权因子可以平衡类别间的不均衡。

    1.1K20

    目标检测(object detection)系列(十) FPN:用特征金字塔引入多尺度

    ,YOLOv2,YOLOv3在损失函数上的区别 前言:用特征金字塔引入多尺度 SSD算法证明了多层分支对于目标检测的有效性,在此之前two-stage的目标检测方法已经优化改进过很多代,但是一直没有加入多尺度的方法...那么下面我们具体说明下。...而FPN要想RPN中添加,就是加层就好了,FPN中RPN的backbone是ResNet,下面是ResNet的网络结构: ResNet结构从18层到152层,不管层数怎么变,它们下采样的位置和倍数都是一致的...FPN每层都有3个Anchor,一共有4层,最后一层滑动两次,假设它是448的输入,那每层的特征图尺寸就是 ,这样算下来Anchor就已经50K个了,但是FPN的输入图像比这个更大,因为感受野就有最大...最后就是个综合实验了,是在Faster R-CNN上应用FPN,主干网络是ResNet-101,在COCO上AP50为59.1,AP为36.2。

    41510

    Focal Loss for Dense Object Detection(文献阅读)

    在本文中,我们提出了一个新的损失函数,它比以往处理类不平衡的方法更有效。损失函数是一个动态缩放的交叉熵损失,当对正确类的置信度增加时,比例因子衰减为零,如下图所示。...相反,我们建议重塑损失函数,减少简单例子的权重,从而将训练重点放在困难的负面因素上。...虽然很多设计选择并不重要,但我们强调使用FPN主干网是至关重要的;仅使用最后一层ResNet的特征进行的初步实验获得了较低的AP。 ...初始化:使用ResNet-50-FPN和ResNet-101-FPN骨干进行实验。在ImageNet1k上对基础ResNet-50和ResNet-101模型进行预训练。使用原始的残差网络模型。...除非另有说明,所有模型都经过90k迭代训练,初始学习率为0.01,然后在60k时除以10,在80k迭代时再除以10。除非另有说明,否则我们使用水平图像翻转作为唯一的数据增强形式。

    1.6K20

    目标检测(object detection)系列(九) YOLOv3:取百家所长成一家之言

    ,YOLOv2,YOLOv3在损失函数上的区别 前言:取百家所长成一家之言 取百家所长成一家之言是一句书面意思上绝对褒义的话,形容一个论文却有些许的尴尬,但是YOLOv3确实是这样,没什么大的改动和创新点...更多细节的东西我们下面说明。...,YOLOv3重新设计了主干网络,Darknet-53,就是下面这个结构: 这是一个引入了残差直连的主干网络,最左侧的一列数字是残差单元的个数,最右侧的output是特征图的尺寸,这个结构和ResNet50...,YOLOv3用了三个指标说明Darknet-53好,分别是Bn Ops,BFLOP/s和FPS,一般情况下分类网络都只用一个指标说明网络的计算量那就是FLOPs或MFLOPs,但是YOLOv3用了三个...YOLOv3的损失函数 YOLOv3的另一个关键的改动是在损失函数,类别损失由Softmax换成了Logistic,这个改变其实个人感觉很牵强,论文给出的两点解释: 对于一个好的结果,softmax不是必须的

    39720

    X射线图像中的目标检测

    SSD Mobilenet_v1 2. SSD Mobilenet_v1_fpn 3. SSD Inception_v2 4. SSD Resnet50 5. R-FCN Resnet101 6....,此外在测试数据集的正样本和负样本的每个比率中,基于SSD的模型(例如SSD_Mobilenet_v1_fpn和SSD_Resnet50)在曲线下的面积也比其他模型(例如R-FCN和Faster R-CNN...(4)基于Inception_v2、Mobilenet_v1_fpn和Resnet50的SSD检测模型优于具有类似网络后端的R-FCN和Faster R-CNN模型。...所有模型中,SSD_Mobilenet_v1_fpn、SSD_Inception_v2和SSD_Resnet50都只能检测到枪支而忽略了所有刀,而其余模型则可以同时检测到枪和刀,RFCN_Resnet101...SSD_Mobilenet_v1_fpn和SSD_Inception_v2可以检测到扳手和枪支漏检了刀,相反除SSD_Resnet50之外的其他模型都可以检测到所有这三种违禁物品。

    1.6K20

    业界 | 一文概览2017年Facebook AI Research的计算机视觉研究进展

    FPN 是通用特征提取网络(如 ResNet、DenseNet)的扩展。你可以从喜欢的 DL 库中选择预训练的 FPN 模型,然后像使用其他模型一样使用它! 图像目标通常有多个尺度和大小。...该论文中有两个关键点:通用损失函数 Focal Loss(FL)和单阶段的目标检测器 RetinaNet。两者的组合使其在 COCO 目标检测任务中表现得非常好,并打败了上述的 FPN 基准结果。...α_t 是通常的加权损失函数中的类别权重。在论文中它被称为 α-balanced 损失。需要注意,这个是分类损失,它将和 smooth L1 损失结合,用于 RetinaNet 的目标检测任务。...他们称其顶尖结果源于新型损失函数的应用,而不是简单的网络(其后端为 FPN)。其中利用的思想是单阶段检测器将面临很多背景和正类别不平衡的情况(不是正类别之间的不平衡)。...该方法使用 ResNet-50-FPN 和 ResNet-101-FPN 主干架构时(没有使用掩码训练数据)都显著超越了数据集 B 上的基线结果。

    66690

    新算法 | 基于DIou改进的YOLOv3目标检测

    新框架 作者定义了本文提出的基于DIoU、CIoU损失函数如下: ? 其中 ? 表示预测框 ? 和 ? 间的惩罚项。 Distance-IoU Loss ?...其损失函数定义如下: ? 上述损失函数为CIoU的损失,通过公式可以很直观的看出,CIoU比DIoU多出了 ? 和 ? 这两个参数。其中 ? 是权重函数。...基于IoU指标,在SSD-FPN上进行实验对比,因为本身模型已经精度很好了,DIoU loss和CIoU的效果不是很显著,但仍有提升。...在Faster R-CNN ResNet-50-FPN上,由于Faster R-CNN本身提供的bbox质量都比较高,因此,GIoU的优化都很小,但此时DIoU和CIoU则表现了不错的优化效果。...总结 论文提出了两种新的IoU-based损失函数,DIoU loss和CIoU loss:DIoU loss最小化bbox间的中心点距离,从而使得函数快速收敛;CIoU loss则在DIoU loss

    1.8K20

    业界 | 一文概览2017年Facebook AI Research的计算机视觉研究进展

    FPN 是通用特征提取网络(如 ResNet、DenseNet)的扩展。你可以从喜欢的 DL 库中选择预训练的 FPN 模型,然后像使用其他模型一样使用它! 图像目标通常有多个尺度和大小。...该论文中有两个关键点:通用损失函数 Focal Loss(FL)和单阶段的目标检测器 RetinaNet。两者的组合使其在 COCO 目标检测任务中表现得非常好,并打败了上述的 FPN 基准结果。...α_t 是通常的加权损失函数中的类别权重。在论文中它被称为 α-balanced 损失。需要注意,这个是分类损失,它将和 smooth L1 损失结合,用于 RetinaNet 的目标检测任务。...他们称其顶尖结果源于新型损失函数的应用,而不是简单的网络(其后端为 FPN)。其中利用的思想是单阶段检测器将面临很多背景和正类别不平衡的情况(不是正类别之间的不平衡)。...该方法使用 ResNet-50-FPN 和 ResNet-101-FPN 主干架构时(没有使用掩码训练数据)都显著超越了数据集 B 上的基线结果。 ?

    77550

    Object Detection-Mask RCNN

    为了更好地讲解Mask RCNN,我会先回顾一下几个部分: Faster RCNN ResNet-FPN ResNet-FPN + Fast RCNN ResNet-FPN + Fast RCNN +...图片来源【5】 ResNet-FPN 多尺度检测在目标检测中变得越来越重要,对小目标的检测尤其如此,Feature Pyramid Network(FPN)就是一种精心设计的多尺度检测方法。...-5da71ebaeb18 Mask RCNN网络分为两个部分: 1.骨干网络ResNet-FPN,用于特征提取。...ResNet可以是ResNet-50、ResNet-101、ResNeXt-50、ResNeXt-101; 2。头部网络,包括边界框识别(分类和回归) + mask预测。...头部结构见下图: 图片来源:https://arxiv.org/pdf/1703.06870.pdf 损失函数 image.png 需要注意的是,计算loss的时候,并不是每个类别的sigmoid输出都计算二值交叉熵损失

    79310

    MFDS-DETR开源 | HS-FPN多级特征融合+Deformable Self-Attention,再续DETR传奇

    [8]使用Faster R-CNN进行目标检测,并实验性地证明了使用ResNet-50作为 Backbone 网络可以获得更高的识别准确性。...Backbone Network MFDS-DETR的特征提取过程中,使用增强版的ResNet-50作为 Backbone 网络。...ResNet-50利用残差连接来缓解梯度消失问题,从而促进收敛并解决深度神经网络通常伴随的退化问题。...与使用多级特征提取的传统单阶段目标检测模型(如SSD)相比,MFDS-DETR模型在AP和 AP_{50} 上分别提高了15.5%和16.7%。...在MFDS-DETR的联合损失函数中,采用了三种类型的损失:分类损失、回归损失和辅助损失。回归损失包含了L1边界框损失函数和GIoU损失函数。分类损失函数对模型的训练至关重要,不能省略。

    5.1K10

    目标检测算法之CVPR 2018 RefineDet

    引入了类似于FPN网络的特征融合操作用于检测器,可以提高对小目标检测的能力,RefineDet检测的框架仍是为SSD。 网络结构 RefineDet的网络结构如Figure1所示: ?...可以看我的这篇推文详细了解:目标检测算法之SSD代码解析(万字长文超详细) 损失函数 RefineDet的损失函数主要包含ARM和ODM两部分。...end了,ARM和ODM两个部分的损失函数都是一起向前传递的。...损失函数公式如下: ? 其中表示一个batch中的第几个Anchor,表示对应的的ground truth bbox(GT)类别,表示的GT框位置,表示置信度,表示ARM中Anchor的坐标。...个人额外思考 TridenetNet+SSD?因为CVPR 2019的三叉戟网络提到FPN结构的精度是不如图像金字塔的,所以我们是否可以考虑将三叉戟网络的三个检测头放到SSD做一个更高精度的网络?

    78620

    基于DIou改进的YOLOv3目标检测

    新框架 作者定义了本文提出的基于DIoU、CIoU损失函数如下: 其中 表示预测框 和 间的惩罚项。...其损失函数定义如下: 上述损失函数为CIoU的损失,通过公式可以很直观的看出,CIoU比DIoU多出了 和 这两个参数。其中 是权重函数。...on PASCAL VOC 基于IoU指标,在SSD-FPN上进行实验对比,因为本身模型已经精度很好了,DIoU loss和CIoU的效果不是很显著,但仍有提升。...Faster R-CNN on MS COCO 在Faster R-CNN ResNet-50-FPN上,由于Faster R-CNN本身提供的bbox质量都比较高,因此,GIoU的优化都很小,但此时DIoU...总结 论文提出了两种新的IoU-based损失函数,DIoU loss和CIoU loss:DIoU loss最小化bbox间的中心点距离,从而使得函数快速收敛;CIoU loss则在DIoU loss

    51210
    领券