前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >目标检测算法之AAAI2019 Oral论文GHM Loss

目标检测算法之AAAI2019 Oral论文GHM Loss

作者头像
BBuf
发布于 2019-12-11 09:48:32
发布于 2019-12-11 09:48:32
2.3K0
举报
文章被收录于专栏:GiantPandaCVGiantPandaCV

前言

这篇论文仍然是瞄准了One-Stage目标检测算法中的正负样本不均衡问题,上周我们介绍He Kaiming等人提出的Focal Loss,推文地址如下:https://mp.weixin.qq.com/s/2VZ_RC0iDvL-UcToEi93og 来解决样本不均衡的问题。但这篇论文提出,Focal Loss实际上是有问题的,论文论述了该问题并提出了GHM Loss更好的解决One-Stage目标检测算法中的正负样本不均衡问题。论文地址为:https://arxiv.org/pdf/1811.05181.pdf。github开源地址为:https://github.com/libuyu/GHM_Detection

梯度均衡机制(GHM)

首先论文引入了一个统计对象:梯度模长(gradient norm)。考虑一个简单的二元交叉熵函数(binar cross entropy loss):

其中是模型预测的样本的类别概率,而是标签信息,这样可以球处于其对的梯度:

所以,论文定义了一个梯度模长为:

直观来看,表示了样本的真实值和预测值的距离。看下论文的Figure2,表示的是一个One-satge模型收敛后画出的梯度模长分布图。Figure2如下:

上图横坐标表示gradient norm,纵坐标表示数据分布的比例,做了对数尺度缩放,显然非常靠近y轴表示的是easy examples,非常靠近轴的表示very hard examples,中间部分的表示hard example。重新标注下上图即:

注意到途中绿框部分即为very hard example,论文认为这部分样本对模型的提升作用是没有帮助的,但这部分样本同样也有着较大的比例。根据Focal Loss的观点,我们班应该关注的是介于红框和绿框之间的样本,而Focal Loss缺不能解决这一点,而是把very hard examples也考虑在内了。这些very hard examples也被称为离群点,也就是说如果一个模型强行拟合了离群点,模型的泛化能力会变差,所以这篇论文提出了GHM Loss抑制离群点,取得了比Focal Loss更好的效果。

基于上面的分析,论文提出了梯度均衡机制(GHM),即根据样本梯度模长分布的比例,进行一个相应的标准化(normalization),使得各种类型的样本对模型参数的更新有更加均衡的贡献,进行让模型训练更高效可靠。由于梯度均衡本质上是对不同样本产生的梯度进行一个加权,进而改变它们的贡献量,而这个权重加在损失函数上也可以达到同样的效果,此研究中,梯度均衡机制便是通过重构损失函数来实现的。为了更加清楚的描述新的损失函数,论文定义了梯度密度(gradient density)这一概念。仿照物理上对于密度的定义(单位体积内的质量),论文把梯度密度定义为单位取值区域内分布的样本数量。首先定义梯度密度函数(Gradient density function)

其中表示第个样本的梯度,而且:

所以梯度密度函数就表示梯度落在区域,的样本数量。再定义度密度协调参数:

其中代表样本数量,是为了保证均匀分布或只划分一个单位区域时,该权值为 1,即 loss 不变。综上,我们可以看出梯度密度大的样本的权重会被降低,密度小的样本的权重会增加。于是把GHM的思想应用于分别应用于分类和回归上就形成了GHM-C和GHM-R。

用于分类的GHM Loss

把GHM应用于分类的loss上即为GHM-C,定义如下所示:

根据GHM-C的计算公式可以看出,候选样本的中的简单负样本和非常困难的异常样本(离群点)的权重都会被降低,即loss会被降低,对于模型训练的影响也会被大大减少,正常困难样本的权重得到提升,这样模型就会更加专注于那些更有效的正常困难样本,以提升模型的性能。GHM-C loss对模型梯度的修正效果如下图所示,横轴表示原始的梯度loss,纵轴表示修正后的。由于样本的极度不均衡,论文中所有的图纵坐标都是取对数画的图。注意这是Loss曲线,和上面的梯度模长曲线要加以区别。

从上图可以看出,GHM-C和Focal Loss(FL)都对easy example做了很好的抑制,而GHM-C和Focal Loss在对very hard examples上有更好的抑制效果。同时因为原始定义的梯度密度函数计算计算太复杂,所以论文给出了一个梯度密度函数简化版本

其中,。然后再结合密度协调函数:

得到为:

用于回归的GHM Loss

GHM的思想同样适用于Anchor的坐标回归。坐标回归的loss常用Smooth L1 Loss,如下图:

其中,表示模型的预测坐标偏移值,表示anchor相当于Ground Truth的实际坐标偏移量,表示函数的分界点,常取。定义,则的梯度为:

其中表示符号函数,当时,所有样本梯度绝对值都为1,这使我们无法通过梯度来区分样本,同时d理论上可以到无穷大,这也使我们无法根据梯度来估计一些example输出贡献度。基于此观察,论文对Smooth L1损失函数做了修正得到:

在论文中,。 和Smooh L1损失有相似的性质,并且梯度为:

论文把定义为梯度模长(gradient norm),则的梯度模长和样本部分的关系如下图所示:

由于坐标回归都是正样本,所以简单样本的数量相对并不是很多。而且不同于简单负样本的分类对模型起反作用,简单正样本的回归梯度对模型十分重要。但是同样也可以看出来,存在相当数量的异常样本的回归梯度值很大。(图上最靠右的部分)。所以使用GHM的思想来修正loss函数,可以得到:

以达到对离群点的抑制作用。GHM-R Loss对于回归梯度的修正效果如下图所示:

可以看到,GHM-R loss加大了简单样本和正常困难样本的权重,大大降低了异常样本的权重,使模型的训练更加合理。

实验结论

因为GHM-C和GHM-R是定义的损失函数,因此可以非常方便的嵌入到很多目标检测方法中,作者以focal loss(大概是以RetinaNet作为baseline),对交叉熵,focal loss和GHM-C做了对比,发现GHM-C在focal loss 的基础上在AP上提升了0.2个百分点。如表4所示。

如果再用GHM-R代替双阶段检测器中的Smooth L1损失,那么AP值又会有提示。如表7所示。

如果同时把GHM-R Loss和GHM-C Loss用到目标检测器中,AP值有1-2个点提升。

后记

论文的大概思想就是这样,对于样本有不均衡的场景,我认为这个Loss是比较值得尝试的。

参考文章

https://blog.csdn.net/watermelon1123/article/details/89362220 https://zhuanlan.zhihu.com/p/80594704


本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2019-12-07,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 GiantPandaCV 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
德国最有影响力的十位数学家
最具有革命性的数学家 康托尔,两千多年来,科学家们接触到无穷,却又无力去把握和认识它,这的确是向人类提出的尖锐挑战。康托尔以其思维之独特,想象力之丰富,方法之新颖绘制了一幅人类智慧的精品——集合论和超穷数理论,令19、20世纪之交的整个数学界、甚至哲学界感到震惊。可以毫不夸张地讲,“关于数学无穷的革命几乎是由他一个人独立完成的。”而他创立的集合论,已经成为了现代数学基础理论大厦。
深度学习技术前沿公众号博主
2020/05/18
1.9K0
哥廷根群星闪耀时
量子力学的开端可以追溯到二十世纪世纪二十年代德国的哥廷根大学。这所大学培育出了众多家喻户晓的科学家,有超过45名诺贝尔奖获得者和这所学校有关。
magic2728
2020/11/11
5020
哥廷根群星闪耀时
这个播放量200万的视频燃爆了!它讲透了:希尔伯特计划是如何被哥德尔与图灵“打脸”的?
1930年,临近退休前,著名数学家大卫·希尔伯特在于柯尼斯堡召开的全德自然科学及医学联合会代表大会上做了题为《自然认知及逻辑》的4分钟演讲。这场即将计入历史的演讲以希尔伯特的6字箴言结束:
AI科技评论
2021/07/02
9990
顶级数学家有多厉害?看看希尔伯特就知道了(5k字)
科学Sciences导读:公号对话框发送“数学家希尔伯特”获取5k字4图5页PDF顶级数学家有多厉害?看看希尔伯特就知道了。关键词:数学家(mathematician)。QinlongGEcai微信被封,转向自用、科普文章、学术论文OAJ电子刊免费开放获取。
秦陇纪
2020/11/13
2K0
顶级数学家有多厉害?看看希尔伯特就知道了(5k字)
数论重大突破:120年后,希尔伯特的第12个数学难题借助计算机获得解决
德国数学家大卫 · 希尔伯特(David Hilbert)是二十世纪最伟大的数学家之一,被后人称为「数学世界的亚历山大」。他对数学领域做出了广泛和重大的贡献,研究领域涉及代数不变式、代数数域、几何基础、变分法、积分方程、无穷维空间以及物理学和数学基础等。1899 年出版的《几何基础》成为近代公理化方法的代表作,且由此推动形成了「数学公理化学派」。
机器之心
2021/06/08
7410
哥德尔不完备性定理的意义是什么?
千百年来,哲学家一直面对一个问题,那就是数学研究究竟是一种什么样的求知活动。其实,主体具有纯数学知识亦是获得可以测量的可靠信息。
大数据文摘
2023/09/06
4910
哥德尔不完备性定理的意义是什么?
12位古代数学家的现代化成就
转自|哆嗒数学网(DuodaaMath) 数学已经成为人类步入现代化的核心工具与中心思想。大到卫星上天,小到一个app应用,都离不开数学——只是你是否知道而已。 但是,请和我们哆嗒数学网的小编一起想象一下。远在数学还没有给我们带来计算机、量子力学和卫星定位系统之前的古代,一些最聪明的大脑已经在不断的发现他们的数学成就。这些发现建立了最基本的数学思想和工具,带领我们走进了现代化的生活。这是多么神奇的事情。 下面列出的12位数学家,就是这些人中的佼佼者。他们的发现,形成了世界走入现代化的数学基石,也是我们步入
大数据文摘
2018/05/24
9970
数理逻辑-布尔代数
英国数学家G.布尔为了研究思维规律(逻辑学、数理逻辑)于1847和1854年提出的数学模型。
里克贝斯
2021/05/21
1.4K0
数理逻辑-布尔代数
简单数学分支整理
2024年阿里巴巴全球数赛火上了天。一位年仅17岁的中专生,打败了清华北大等全世界知名院校学生,在2024阿里巴巴全球数学竞赛公布决赛中,以93分的成绩荣获全球排名第12位。
jack.yang
2025/04/05
1440
数形结合「求解」希尔伯特第13个数学难题
有一个问题是德国数学家大卫 · 希尔伯特在20世纪初预测的23个当时尚未解决的数学问题中的第13个,他预测这些问题将塑造这个领域的未来。
新智元
2021/01/25
6920
中国人工智能的起步,与这位数学家密切相关
工作中的吴文俊(1919年5月12日-2017年5月7日)。图源:中国科学院数学与系统科学研究院
大数据文摘
2023/09/06
2630
中国人工智能的起步,与这位数学家密切相关
谁才是百年计算机的数学灵魂:莱布尼茨、图灵还是希尔伯特?
虽然计算机的出现,不到百年,然而为了它的出现,所进行的探索和研究,早已经历经数百年的历史。
深度学习技术前沿公众号博主
2020/11/20
8260
谁才是百年计算机的数学灵魂:莱布尼茨、图灵还是希尔伯特?
计算机中的数学【集合论】现代数学的共同基础
现代数学有数不清的分支,但是,它们都有一个共同的基础——集合论——因为 它,数学这个庞大的家族有个共同的语言。集合论中有一些最基本的概念:集合(set),关系(relation),函数(function),等价 (equivalence),是在其它数学分支的语言中几乎必然存在的。对于这些简单概念的理解,是进一步学些别的数学的基础。我相信,理工科大学生对于 这些都不会陌生。
一个会写诗的程序员
2018/08/17
1.1K0
顶级数学家有多恐怖?物理还未发现,100多年前黎曼已先知先觉!(5k字)
科学Sciences导读:公号对话框发送“数学家黎曼先知”获取5k字27图21页PDF顶级数学家有多恐怖?物理还未发现,100多年前黎曼已先知先觉!。关键词:数学家(mathematician),物理(physics)。QinlongGEcai微信被封,转向自用、科普文章、学术论文OAJ电子刊免费开放获取。
秦陇纪
2020/11/13
3.5K0
顶级数学家有多恐怖?物理还未发现,100多年前黎曼已先知先觉!(5k字)
第二次数学危机——消失的鬼魂,贝克莱悖论
莱布尼茨开创了数理逻辑,提出了计算之梦,乔治·布尔则在此基础上完成了逻辑的算术化,在计算领域迈出了坚实的一步。
博文视点Broadview
2023/11/21
1.1K0
第二次数学危机——消失的鬼魂,贝克莱悖论
GAIR 2023:AI 历史中的机缘与巧合,青年科学家的探索与突破
100年前的1923年,未及弱冠的17岁少年库尔特·哥德尔(Kurt Gödel)进入维也纳大学攻读理论物理学位。在学期间,他受到数学教师哈恩和门格尔的影响转攻数学,当时没有人可以想象,这一决定对我们今天的世界将会产生什么样的巨大影响。
AI科技评论
2023/09/07
3630
GAIR 2023:AI 历史中的机缘与巧合,青年科学家的探索与突破
兴衰成败三百年:俄罗斯数学的光荣与梦想
讲俄罗斯的数学有个人不得不提一下,那就是欧拉。欧拉,瑞士数学家、自然科学家。欧拉是18世纪数学界最杰出的人物之一,数学史上最多产的数学家,在许多数学的分支中也可经常见到以他的名字命名的重要常数、公式和定理。
新智元
2019/06/19
1.2K0
兴衰成败三百年:俄罗斯数学的光荣与梦想
MIT牛人梳理脉络详解宏伟现代数据体系
在过去的一年中,我一直在数学的海洋中游荡,research进展不多,对于数学世界的阅历算是有了一些长进。 【为什么要深入数学的世界】 作为计算机的学生,我没有任何企图要成为一个数学家。我学习数学的目的,是要想爬上巨人的肩膀,希望站在更高的高度,能把我自己研究的东西看得更深广一些。说起来,我在刚来这个学校的时候,并没有预料到我将会有一个深入数学的旅程。我的导师最初希望我去做的题目,是对appearance和motion建立一个unified的model。这个题目在当今Computer Vision中百花齐放的
CSDN技术头条
2018/02/09
1.1K0
图灵 V.S 冯诺依曼
图灵和冯诺依曼都对计算机的发展做出了杰出的贡献,那么这两位大神级的人物,谁更配得上计算机之父呢?
程序猿石头
2021/09/02
2K0
图灵 V.S 冯诺依曼
2021年理论计算机最高荣誉“哥德尔奖”出炉!两位华人学者获奖,AdaBoost算法曾获该奖
哥德尔理论计算机科学杰出论文奖由EATCS和ACM SIGACT联合主办。该奖项的设立是为了纪念库尔特·哥德尔(Kurt Gödel)在数理逻辑方面做出的重大贡献,因而以他的名字而命名。哥德尔在约翰·冯·诺依曼去世前给他写了一封信,表达了他对数理逻辑的兴趣以及他的重大发现,这个发现也就是后来著名的“P/NP" 问题。
AI科技评论
2021/05/19
9700
2021年理论计算机最高荣誉“哥德尔奖”出炉!两位华人学者获奖,AdaBoost算法曾获该奖
推荐阅读
相关推荐
德国最有影响力的十位数学家
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档