首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

AAAI22 | 简单的无监督图表示学习

具体而言,通过构造多重损失探索结构信息与邻域信息之间的互补信息来扩大类间变化,并通过增加一个上限损失来实现正嵌入与锚嵌入之间的有限距离来减小类内变化。...图对比学习方法的主要区别在于输入内容及其相关内容的定义,通过各种数据增强,例如属性掩蔽或边缘扰动,最大化每个节点两视图之间的MI。...2.2.3 多重损失 考虑到锚点嵌入、正嵌入和负嵌入,对比学习的目的是使正对(即锚点和正嵌入)紧密结合,而使负对(即锚点和负嵌入)远离。...3.4 消融实验 SUGRL考虑三种信息,即语义信息、结构信息和邻居信息,生成两种具有对应对比损失的正对(LS和LN)。...为了获得有效性,作者设计了两个三重组损失函数来探索结构信息和邻居信息之间的互补信息,以扩大类间的变化,以及一个上限损失来减少类内的变化。

2.1K10

腾讯优图——分布式知识蒸馏损失改善人脸识别困难样本(附论文代码)

基本上,先前的工作分为两类,即基于Softmax损失的方法和基于三重态损失的方法。基于Softmax损失的方法将每个标识视为一个唯一的类来训练分类网络。...Positive Pairs 正对预先离线构建,每对由两个具有相同身份的样本组成。如上图所示。每对正样本按顺序排列。通过深度网络F将数据嵌入到高维特征空间后,可以得到正对s+的相似性如下: ?...在这里,简单样本表明FR引擎表现良好,其中正对和负对的相似性分布被清楚地分离(见上图中的教师分布),虽然难样本表明FR引擎性能差,其中相似分布可能高度重叠(见上图中的学生分布)。...在以往KD方法的推动下,采用KL散度来约束学生和教师分布之间的相似性,定义如下: ? Order损失 然而,仅使用KL损失并不能保证良好的性能。...与以往的难样本挖掘方法不同,在训练过程中,基于损失值挖掘难样本时,根据人类先验预先定义难样本。惩罚单个样本或三胞胎,就像以前的难样本挖掘方法一样,并不能充分利用对总体分布的上下文洞察力。

1.4K10
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    深度 | 使用三重损失网络学习位置嵌入:让位置数据也能进行算术运算

    使用三重网络的度量学习因谷歌的 FaceNet [3] 而变得更为流行,其中使用了三重损失来学习人脸图像的嵌入空间,这样相似人脸的嵌入就更为接近,不同人脸的嵌入则距离更远。...这会迫使网络认为正例图像块与锚图像是近似的,即使该信息的某个随机子集是不同的(比如没有建筑、没有道路等)。 SoftPN 三重损失函数 图 10 展示了我们的三重网络的一般结构。 ?...图 10:这个三重损失直接优化「锚嵌入和正例嵌入之间的距离」与「锚嵌入和负例嵌入之间的距离」的比 这个损失函数定义为,这样优化网络就对应于最小化向量 相比于向量 (0,1) 的均方误差(MSE)。...这种三重损失的定义往往被称为 SoftMax 比,并且最早是由 Ailon et al. [2] 提出的。...其效果是,在优化过程中,该网络会尝试学习一个度量空间,其中锚嵌入和正例嵌入都离负例嵌入尽可能地远。相对而言,原来的 SoftMax 比值损失仅考虑了锚嵌入和负例嵌入之间的距离。

    1.3K10

    度量学习总结(三) | Deep Metric Learning for Sequential Data

    这三个例子通过相似度关系相互关联,也就是说,正面的例子应该比反面的例子更类似于锚点的例子。三重网络训练学习一个函数,该函数将实例嵌入度量空间,其中正序列比负序列更接近锚点实例。...我们将包含规范化层的嵌入网络称为f,x是序列,z是嵌入序列z=f(x)。图示意性地描述了我们的三重网络体系结构。我们使用一个三重LSTM和一个L2规范化层来学习序列的度量嵌入空间。...假设一个嵌入锚示例zia的三重集合,一个嵌入正示例zip和一个嵌入负示例zin,这个目标最小化锚与正锚与锚与负锚之间的距离差以及给定的裕度α。α是一个超参数。...如果正例与锚之间的距离较小,而负例与锚之间的距离较大,则三重损失L较小。参数α确保允许同一类的示例之间存在空白。 我们使用Jaccard距离作为代理度量来确定相似性两个输入序列之间的关系。...也就是说,对于锚示例,我们需要知道一个示例是正的,即属于同一类,还是负的,即属于不同的类。 输入示例之间的关系在锚示例x a和另一个示例x j之间定义。我们使用两个步骤来定义这种关系。

    2.6K40

    Deep Metric and Hash-Code Learning for Content-Based Retrieval of Remote Sensing Images

    MHCLN使用不同损失函数的组合进行训练,同时旨在聚类相似的图像,同时产生易于二值化的最终表示。具体地说,我们使用三重损失来学习度量空间,其中点对之间的欧几里德距离对应于对应图像之间的语义距离。...(总结:使用三重损失函数来训练MHCLN,这三重损失函数下文会讲) 用L={X1,...XP}来表示遥感图像的训练集,其中Xi与一个类标签Yi相联系(例如,“飞机场”,“停车场”等)。...为了学习度量空间,我们采用了三重损失。三重损失背后的判断是:在目标度量空间中,将相似的图像聚在一起,将不同的图像分开。...利用T和从T中随机抽取的小批量基数M,我们的三重损失定义如下: 其中α是施加在正负距离之间的最小边缘。...为了将后者推向范围的极端,我们使用第二个损失,目的是最大化最后一层激活与0.5之间平方差的和。 其中1是所有元素为1的k维向量。

    31410

    深度学习+度量学习的综述

    另外,角度损失是一种新颖的方法,侧重于三重三角形负点处的角度约束,将负点推离正簇的中心,使正点彼此靠近,同时使用作为旋转和尺度不变度量的角度(等式(8))。...例如,一对输入样本DW(X1, X2)的距离为: 其中,GW(X1) 和 GW(X2) 是新表示的输入样本,DW用于计算损失函数中两个输入之间的距离。...用于计算 Siamese 网络模型中损失函数的 LContrastive 是: 其中Y是标签值,如果输入来自同一类则Y=1,否则Y=0。m是LContrastive中的margin值。...三元组网络有三个输入:锚输入X、与X相似的X_p、与X不同的X_n。LTriplet损失是: 其中 α 是裕度值。四元网络模型还具有与三元网络模型不同的另一个输入X。...四倍损失 LQuadruple 是: 角度损失考虑了样本之间的角度关系。角度损失 LAngular 是: 其中 X c 位于 X 和 X p 的中间。

    54710

    大型语言模型:SBERT — 句子BERT

    其中之一是 BERT,它主要由几个堆叠的 Transformer 编码器组成。除了用于一系列不同的问题(例如情感分析或问答)之外,BERT 在构建词嵌入(表示单词语义的数字向量)方面变得越来越流行。...其他方法 分析交叉编码器架构的低效率,为每个句子独立地预先计算嵌入似乎是合乎逻辑的。之后,我们可以直接计算所有文档对上选定的距离度量,这比将平方数的句子对输入 BERT 要快得多。...用于解决此目标的最流行的现有问题之一是 NLI(自然语言推理),其中对于定义假设和前提的给定句子 A 和 B,有必要预测假设是否为真(蕴涵),在给定的前提下,错误(矛盾)或不确定(中立)。...三重态目标函数 三元组目标引入了三元组损失,该损失是根据通常称为锚、正和负的三个句子计算的。假设锚定句和肯定句非常接近,而锚定句和否定句则非常不同。...在训练过程中,模型会评估该对(锚,正)与该对(锚,负)相比的接近程度。从数学上讲,以下损失函数被最小化: 间隔 ε 确保正句子与锚点的距离至少比负句子与锚点的距离近 ε。否则,损失将大于0。

    84020

    对抗样本的反思:仅仅设置更小的扰动阈值 ε,或许并不够

    对抗样本的正式定义如下: ? 图 2:对抗性样本的定义 其中 ? 是我们尝试最大化的损失函数,?...图 6:三重网络的作用 有一种被称为三重网络(triplet networks)的技术使用的正式这种方案。...三重网络将 3 幅图像同时传递给同一个嵌入网络来并行运行,并通过类 y 的锚,以及同一类的正例(+)和不同类 y'的负例(-)。损失函数确保了锚和正例之间的距离至少小于锚和负例之间的距离。...PGD 的攻击是在损失函数梯度方向上迭代增加损失,然后将得到的图像投影到满足原始图像距离约束的输入子空间上。...因此,尽管人们可能会放弃「基于干扰的对抗样本」的定义,但就目前而言,它们是唯一允许以独立的、非混淆的方式研究对抗鲁棒性的方法。 4.

    1.2K20

    不需要锚框:一种全卷积 One-Stage 目标检测算法(FCOS)

    策略 实验对比 总结 基于锚框的检测器(Anchor-Based Detectors) 现有的目标检测方法大多使用预先定义的锚框,如:Fast-RCNN, YOLOv3, SSD, RetinaNet...其中,C是类的数量;(x⁰ᵢ, y⁰ᵢ)和(x¹ᵢ, y¹ᵢ) 是边框的左上角及右下角坐标。对于特征图上的任一位置(x,y),类似于语义分割中的工作,我们可以确定其对应的原始图像中的像素。...对于特征图中的每个点,我们计算其分类得分,而对于被确定为正样本的每个点,我们进行回归。因此,总损失函数变成: ? 其中,λ=1。...RHS的第一部分是像素(x,y)分类,采用了 RetinaNet 中使用的标准焦距损失(Standard focal loss)。...顾名思义,它是对边界框内正样本像素的中心度进行计算,相当于给网络添加了一个损失,而该损失保证了预测的边界框尽可能的靠近中心。这是为了改善无锚框检测器的性能,使其与基于锚框的检测器不相上下。

    1.7K20

    任何方向都高度准确,上交、旷视联合提出最强旋转目标检测器R3Det

    论文链接:https://arxiv.org/abs/1908.05612 代码地址:https://github.com/Thinklab-SJTU/R3Det_Tensorflow 研究背景 目标检测是计算机视觉中的基本任务之一...尽管一些工作使用可变形卷积进行特征对齐,但其偏移参数通常是通过学习预定义Anchor和精炼Anchor之间的偏移量来获得的。...这些基于可变性卷积的特征对齐方法的一个目的是扩大感受野,这个感受野往往是不明显并且不能确保特征真正对齐。 特征对齐仍然限制着精炼单级目标检测器的性能。...这个多任务损失函数如下: 其中N表示Anchor的数目, 是一个二元值(对于前景区域取1,背景区域取0,即只对目标框回归)。 表示预测的偏移量, 表示GT信息。...精炼检测器的总损失为: 其中 是第 个精炼阶段的损失值,平衡系数 默认设置为1。

    5.1K51

    【深度学习】光学字符识别(OCR)

    损失函数形式为: 其中每个锚点都是一个训练样本,i是一个小批量数据中一个锚点的索引。sis_isi​是预测的锚点i作为实际文本的预测概率。...si∗={0,1}s_i^*= \lbrace 0,1 \rbracesi∗​={0,1}是真实值。j是y坐标回归中有效锚点集合中锚点的索引,定义如下。...有效的锚点是定义的正锚点(sj∗=1s_j^*=1sj∗​=1,如下所述),或者与实际文本提议重叠的交并比(IoU)>0.5。...vjv_jvj​和vj∗v_j^*vj∗​是与第j个锚点关联的预测的和真实的y坐标。k是边缘锚点的索引,其被定义为在实际文本行边界框的左侧或右侧水平距离(例如32个像素)内的一组锚点。...oko_kok​和ok∗o_k^*ok∗​是与第k个锚点关联的x轴的预测和实际偏移量LsclL^{cl}_sLscl​是我们使用Softmax损失区分文本和非文本的分类损失。

    6.6K10

    每日学术速递11.30

    我们的方法利用预先训练的图像扩散模型,通过三头架构和渲染损失进行增强,以提高稳定性和材料质量。...预训练图像扩散模型 利用预训练的图像扩散模型,并将其适应于材料估计任务,通过新颖的三重头架构和渲染损失来稳定训练过程,并弥合自然图像与材料图之间的差距。 3....消融研究 三重头U-Net的有效性:评估使用传统U-Net架构代替三重头U-Net时的性能差异。 渲染损失的有效性:评估在没有渲染损失的情况下训练方法的性能。...Material Anything框架 提出了一个端到端的解决方案,能够适应不同的光照条件和对象类型。 利用预训练的图像扩散模型,通过三重头架构和渲染损失改进材料生成的稳定性和质量。 3....定量评估:通过FID和CLIP分数验证了生成材料的质量和与提示的一致性。 消融研究:证明了三重头U-Net、渲染损失和信心掩码等组件的有效性。 6.

    12010

    Feature Selective Anchor-Free Module for Single-Shot Object Detection(文献阅读)

    Anchor box用于将所有可能的Instance box离散为有限数量的具有预先定义的位置、尺度和纵横比的box。Instance box和Anchor box基于IOU重叠率来匹配。...特征金字塔由P3到P7的骨干网构成,其中l为金字塔级, 为输入图像的 分辨率。为了简单起见,只显示了三个级别。金字塔的每一层都用于探测不同尺度的物体。...采用IoU损失进行优化。图像无锚分支的总回归损失是所有有效盒区域IoU损失的平均值。在推理过程中,很容易从分类和回归输出中解码预测框。在每个像素位置(i,j),假设预测补偿是 ,预测距离为 。...给定一个instance I,我们定义在 上的分类损失和回归损失分别为 和 。...优化:整个网络的损失是无锚和基于锚的分支的综合损失。假设 是原始基于RetinaNet总共的损失。并且令 和 分别是anchor-free分支总共的分类损失和总共的回归损失。

    1.9K20

    如何用深度学习来做检索:度量学习中关于排序损失函数的综述

    如果两个点是不同的,对比损失将两个点推向相反的方向。如果其中一个点已经位于集群的中心,那么这个解决方案就不是最优的。三元组损失使用三元组而不是样本对来解决这个限制。...前面提到的两种策略都是Tensorflow库所支持的。大多数深度学习框架都提供了对比损失和三元组损失的api。 N-Pairs Loss 对比损失和三元组损失都利用欧氏距离来量化点之间的相似性。...相同的嵌入的余弦相似性为1,不同的嵌入的余弦相似性为0。 但是,N-pairs损失的核心思想是为每个锚都配对一个正样本,同时配对所有的负样本。 ?...这有两个结果:(1)不同类之间的边界是用角度来定义的,(2)可以避免退化的嵌入增长到无限大,一个正则化器,来约束嵌入空间,是必需的。...不是基于距离把点往远处推,目标是最小化角度n,即,使三角形a-n-b在n点处的角度更小。下一个图说明angular loss的公式将负样本点x_n推离xc,xc为由x_a和x_p定义的局部簇的中心。

    1.4K20

    YOLO11-JDE:利用自监督再识别技术实现快速准确的多目标跟踪

    总之,我们的主要贡献是:YOLO11-JDE是一种改进的YOLO11s,可执行JDE,体积小、速度快、精度高。基于Mosaic数据增强和三重损失函数的自我/半监督设置,用于训练JDE模型。...虽然像多重相似性(Multi-Similarity)、InfoNCE或Angular等先进的成对损失算法在某些任务中能提供更高的性能,但我们还是选择了三重损失算法,因为它简单、高效,而且已被证明是有效的...三重损失的目的是通过确保锚点(来自给定身份的样本)比负样本更接近其正向对应样本,从而在正向样本和负样本之间强制执行余量m。...损失函数定义如下数据关联最初,我们采用了FairMOT中使用的两阶段在线数据关联策略。小轨迹从第一帧的检测中初始化,并在随后的帧中使用运动和外观线索组合进行更新。...通过将三重损失与硬正向和半硬负向挖掘策略相结合,YOLO11-JDE生成了在各种跟踪场景(尤其是拥挤环境)中都具有鲁棒性的判别嵌入。

    13110

    TKDE2023 | 为推荐系统注入先验知识: 基于近邻增强的对比学习推荐算法

    在推荐任务中,用户和项目的表征是基于他们的历史交互而学习的。通过扰动锚节点的历史交互记录来生成增强数据是一个自然的想法。在模型训练阶段,锚节点的表示及其增强表示是每个锚节点的正样本。...我们认为,在构建锚节点i的对比损失时,不仅应将其两个视图的表示视为其正样本,还应将其近邻信息的表示也视为其正样本。我们要解决的挑战是如何建模锚节点的多个正样本。...给定dropout输入图 \mathcal{G} ,它会被增强两次以获得两个增强图 G^{'} 和 G^{''} ,其中一种数据增强策略是Node Dropout、Edge 和丢失率设定为ρ的随机游走。...它们的方程如下: 符号 sim⁡(a,i) 表示节点a和i之间的相似度,具体数值由memory-based方法得到。 S_i 的数量是预先定义为K。...我们认为这两种损失函数可以为将锚节点和正样本拉近到表示空间中提供不同类型能力。因此,我们提出模型的整体损失函数如下: 其中 \alpha 是一个超参数,用于平衡两种类型损失函数的重要性。

    44410

    MimicDet:缩小一阶段和两阶段目标检测之间的差距 | ECCV 2020

    因此,它不需要预先培训一个教师模型,也不需要一个更强的骨干模型来充当教师。这些特性使得MimicDet效率更高,并且可以扩展到更大的模型中。...我们在特征金字塔P3到P7上分别定义了从32^2到512^2的锚。不同于以往在feature map的某个位置定义多个锚点,我们在1:1的长宽比下,每个位置只定义一个锚点。...3.4 Detection Heads 我们用Bs表示Refinement模块调整的所有锚盒的集合,Bt表示T-head采样的Bs的稀疏子集。基于Bt,我们将Bm定义为用于优化模拟损失的随机采样子集。...我们对模拟损失的定义如下: ?...最后,我们正式将多任务训练损失定义为: L = LR + LS + LT +Lmimic 其中LR、LS和LT分别表示Refinement模块的损失,S-head和T-head. 4 实验结果 4.1

    1.3K30

    定义生成(DG)| 一种细颗粒度对比学习方法

    其中:「“under-specific problem”是生成的定义符合一般语义但丢失目标词某些部分含义的最常见错误」。  ...为此,目标词的编码和解码可以看作是针对同一语义的两种表达方式。「本文想法是利用定义生成模型中的两种表示,使得它们彼此对齐,以捕获细粒度的语义。...具体地说,我们将目标词表示和定义表示视为正对,并将它们输入到一个对比学习目标中」。...其中,实箭头表示最大似然估计学习的数据流,虚线箭头表示对比学习的数据流。雪图标代表一阶段训练,其中模型从头开始训练,具有对比和生成损失。...2、人工评估结果表明,与其他预先训练的模型相比,本文方法产生的定义更加准确、流畅和细粒度。 论文&&源码 Paper:https://arxiv.org/pdf/2210.00543.pdf

    29710
    领券