首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

CVPR2022 | 动作识别框架新范式 STRM,用最小的样本获得最高的精度

我们提出了一种few-shot动作识别框架STRM,它在学习高阶时间表示的同时,增强了特定类特征的区分能力。我们的方法的重点是一个新的时空增强模块,它将空间和时间上下文与专用的局部帧级别和全局帧级别特征丰富子模块聚合在一起。局部帧级别的扩展捕获基于外观的动作特征。另一方面,全局帧级扩展明确编码了广泛的时间上下文,从而捕获了随时间推移的相关对象特征。然后,利用得到的时空丰富表示来学习查询和支持动作子序列之间的关系匹配。我们进一步在帧级丰富的特征上引入query类相似性分类器,通过在所提出的框架中的不同阶段加强特征学习来增强特定类特征的可区分性。在四个不同的少样本动作识别数据基准上进行了实验:Kinetics、SSv2、HMDB51和UCF101,我们所提的方法达到最佳水平。

00

journal of neuroscience:面孔的神经表征与眼动模式相协调

眼球运动是人类视觉功能如何完成的一个信号。近期大量的研究持续验证了在面孔识别过程中特征视觉采样的策略。然而这些个体差异是否反映在特殊的神经差异上目前尚没有研究报告。为探讨该问题本研究首先记录了观察者在面孔再认过程中的眼动数据;其次通过EEG数据获得了他们的面孔辨别神经反应 (neural face discrimination response)。实验结果发现在面孔再认阶段,注视点固定时间更长的面部特征诱发的面部辨别神经反应更大。该模式在不同的被试中 (eye lookers vs.mouth lookers) 同样被发现,且在注视点首次固定在兴趣位置时这种模式就会出现。本研究表明,眼球运动在视觉处理过程中起着重要的作用,可以为神经系统提供判断特定观察者的判断信息,并且面孔身份的有效处理涉及特质,而不是整个面孔。该研究由来自瑞士的Stacchi, Ramon, Leo和Caldara 完成,发表在杂志the journal of neuroscience上。

01

引用次数最多的七篇深度学习论文出自谁手?Hinton、Yoshua榜上有名(理解/泛化/迁移篇)

编者按:我们通常都会学习前辈或大牛的经典作品,而引用次数自然也成为了论文的一个重要标杆。在 GitHub 上,大神 @Terryum 整理了一份精心编写的论文推荐列表,其中包含了在深度学习领域中引用次数最多的前100篇论文(自2012年起)。囿于篇幅限制,AI 研习社整理编译了理解/泛化/迁移领域的七篇论文,并增加了论文的概要,方便读者快速了解。 有一些深度学习论文,无论它们属于哪个应用领域,都值得仔细研习。文章在精不在多,AI 研习社提供的这些文章,都被认为是值得一读的优秀论文。 █ 背景 除此列表之

08

CVPR 2022 | 大幅减少零样本学习所需的人工标注,马普所和北邮提出富含视觉信息的类别语义嵌入

来源:机器之心本文约2900字,建议阅读10+分钟VGSE模型能够发掘与人工标注属性互补的视觉特征。 来自北京邮电大学、马普所等机构的研究者提出了类别嵌入发掘网络,提高了类别嵌入在视觉空间的完备性,对零样本学习中类别之间的知识转移有重要促进作用。 零样本学习旨在模仿人类的推理过程,利用可见类别的知识,对没有训练样本的不可见类别进行识别。类别嵌入(class embeddings)是描述类别语义和视觉特征的向量,能够实现知识在类别间的转移,因而在零样本学习中发挥着不可替代的作用。 零样本分类图解 如上图所示

02

CVPR 2022 | 大幅减少零样本学习所需的人工标注,马普所和北邮提出富含视觉信息的类别语义嵌入

机器之心专栏 作者:北京邮电大学、马普所 来自北京邮电大学、马普所等机构的研究者提出了类别嵌入发掘网络,提高了类别嵌入在视觉空间的完备性,对零样本学习中类别之间的知识转移有重要促进作用。 零样本学习旨在模仿人类的推理过程,利用可见类别的知识,对没有训练样本的不可见类别进行识别。类别嵌入(class embeddings)是描述类别语义和视觉特征的向量,能够实现知识在类别间的转移,因而在零样本学习中发挥着不可替代的作用。 零样本分类图解 如上图所示,由于属性(attributes)能够被不同类别共享,促进了

03

Diverse Image-to-Image Translation via Disentangled Representations

摘要:图像到图像的翻译主要学习两个视觉域之间的映射关系。主要有两个挑战:1)缺少对齐的成对的训练数据2)和对于一个输入图片的多种可能输出。这篇文章中,提出了基于解开表示disentangled representation的,在没有成对训练数据情况下,产生多样的输出。为了实现多样性,将图片分解为两个空间:一个域不变的内容空间来捕捉不同域之间的共享信息,和属性空间的特殊域。此模型从给定图片中提取解码的内容特征以及从属性空间中采样的属性向量来在测试阶段产生多样性图片。为了解决数据不成对问题,我们提出了一个新的基于解开表示的交叉循环一致性损失cross-cycle consistency loss。质量评估显示在没有成对训练数据的情况下我们能生成多样真实的图片。在量化比较中,我们用用户学习来评价真实性以及用感知距离度量来评价多样性。在MNIST-M和LineMod数据集上的应用性与其他先进算法的比较中具有有竞争力的表现。

01
领券