作者简介:魏秀参,南京大学计算机系机器学习与数据挖掘所(LAMDA)博士生,专攻计算机视觉和机器学习。曾在国际顶级期刊和会议发表多篇学术论文,并两次获得国际计算机视觉相关竞赛冠亚军。 责编:何永灿,欢迎人工智能领域技术投稿、约稿、给文章纠错,请发送邮件至heyc@csdn.net 本文为《程序员》原创文章,未经允许不得转载,更多精彩文章请订阅2017年《程序员》 有别于通用图像分析任务,细粒度图像分析的所属类别和粒度更为精细,它不仅能在更细分的类别下对物体进行识别,就连相似度极高的同一物种也能区别开来。
计算机视觉(CV)是用机器来理解和分析图像的过程,是人工智能中一个重要分支。在 CV 的各个研究领域中,细粒度图像分析(fine-grained image analysis, FGIA)是一个长期存在的基础性问题,而且在各种实际应用(比如鸟的种类、汽车模型、商品识别等)中无处不在。由细粒度特性造成的类间(inter-class)小变化和类内(intra-class)大变化使得这一问题具有极大的挑战性。由于深度学习的蓬勃发展,近年来应用了深度学习的 FGIA 取得了显著的进步。
(CV)是用机器来理解和分析图像的过程,是人工智能中一个重要分支。在 CV 的各个研究领域中,细粒度图像分析(fine-grained image analysis, FGIA)是一个长期存在的基础性问题,而且在各种实际应用(比如鸟的种类、汽车模型、商品识别等)中无处不在。由细粒度特性造成的类间(inter-class)小变化和类内(intra-class)大变化使得这一问题具有极大的挑战性。由于深度学习的蓬勃发展,近年来应用了深度学习的 FGIA 取得了显著的进步。
作者:Xiu-Shen Wei等 机器之心编译 参与:Pedro、路 近日,来自南京大学、旷视和阿德莱德大学的研究者在 arXiv 上发布论文,提出一种利用少量样本学习新类别细粒度分类器的新方法 FSFG 模型,该方法包含两个模块:双线性特征学习模块和分类器映射模块。后者中的「分段映射」功能是该模型的关键部分,它通过一种参数更少的方式学习一组相对易实现的子分类器,进而生成决策边界。 细粒度图像识别是一个重要的计算机视觉问题。得益于复杂深层网络结构的应用,该问题解决方案的表现也越来越好。训练这种分类算法所需
欢迎来到《每周CV论文推荐》。在这个专栏里,还是本着有三AI一贯的原则,专注于让大家能够系统性完成学习,所以我们推荐的文章也必定是同一主题的。
欢迎大家来自《图像分类》专栏,今天讲述细粒度图像分类问题,这是计算机视觉领域一项极具挑战的研究课题,本文介绍了细粒度图像分类算法的发展现状、相关数据集和竞赛,供大家参考学习。
Awesome Fine-grained Visual Classification Awesome Fine-Grained Image Analysis – Papers, Codes and Datasets—-weixiushen
机器之心原创 作者:思源 近日,百度发布了用于花卉识别的移动端应用,这种基于全卷积注意力网络的细粒度识别方法在计算和准确度上都有非常强大的优势。在百度主任研发架构师陈凯和资深研发工程师胡翔宇的解释下,本文首先将介绍什么是细粒度识别,以及一般的细粒度识别方法,然后重点解析百度基于强化学习和全卷积注意力网络的细粒度识别模型。五一出游赏花,为女朋友解释解释细粒度识别也是极好的。 细粒度识别的概念其实非常简单,即模型需要识别非常精细的子类别。例如百度的花卉识别应用,模型不仅需要如一般识别问题那样检测出物体是不是
我们在路边看到萌犬可爱至极,然后却不知道这个是哪种狗;看见路边的一个野花却不知道叫什么名字,吃着一种瓜,却不知道是甜瓜还是香瓜傻傻分不清……
跨媒体检索(Cross-media Retrieval)是指用户给定任意一种媒体类型数据作为查询样例,系统检索得到与查询样例相关的各种媒体数据。如图 1 所示,当用户给定一张灰背鸥(Slaty-backed Gull)的图像作为查询样例,检索结果包含了图像、文本、视频和音频 4 种媒体数据。现有跨媒体检索研究一般聚焦在粗粒度跨媒体检索(Coarse-grained Cross-media Retrieval),只是将灰背鸥的图像作为鸟的图像进行分析检索,因此检索结果中会包含各种相似鸟类的媒体数据(如灰翅鸥、银鸥、加州海鸥等),而不是灰背鸥的图像、文本、视频和音频数据,如图 1(a) 所示。为了克服上述问题,本文提出了细粒度跨媒体检索(Fine-grained Cross-media Retrieval),即用户给定任意一种媒体类型数据作为查询样例,系统检索得到与查询样例细粒度类别相同的各种媒体数据,如图 1(b) 所示,检索得到灰背鸥的图像、文本、视频和音频数据。
【导语】北大、哈工大和加州大学圣巴巴拉分校在 ACL 2019 的一篇论文中联合提出了一个全新的生成性解释框架,该框架能够对分类策略进行学习,并同时提供细粒度的解释。这项研究还提供了解释因子以及最小化风险训练(minimum risk training)方法,以便进行学习并产生更加合理的解释。
2011 年,谷歌开始赞助举办第一届 FGVC Workshop,之后每两年举办一次,到 2017 年已经举办了第四届。而由于近年来计算机视觉的快速发展,FGVC 活动影响力也越来越大,从去年开始由两年一次改为了一年一次。
针对传统的多类别图像分类任务,经典的CNN网络已经取得了非常优异的成绩,但在处理细粒度图像数据时,往往无法发挥自身的最大威力。
图来自http://www.weixiushen.com/project/Awesome_FGIA/Awesome_FGIA.html
选自 arXiv 机器之心编译 参与:李泽南 图像识别技术的发展速度很快,我们开发的机器学习模型已经可以识别越来越多的物体种类了。然而,大多数图像识别算法都非常依赖于有标签的数据集,同时对于图片中物体的精细分类能力也非常有限。近日,斯坦福大学李飞飞团队提交的论文在减少数据依赖和提高识别细粒度程度等问题上向前迈进了一步。该论文已被 ICCV 2017 大会接收。 图像识别的终极目标是识别真实世界中的所有物体。更加艰巨的任务则是精细识别——细分同一类别的物体(如不同种类的鸟、不同品牌的汽车)。目前的业内最佳细
当我们还对玫瑰、月季和蔷薇傻傻分不清楚的时候,计算机视觉已经可以在一万种极其相似的自然界物种里精确地分门别类了。
在他们的真实描述中提供了广泛的概述。特别是,它们在生成细粒度描述方面的效力受到其固有的简洁性、简单性和多目标关注性的显著限制。此外,传统的评估指标如BLEU 和 SPICE(Brocker等人,2016)不适合评估细粒度描述,因为它们过于依赖这些粗略的真实描述,缺乏必要的粒度。
无监督的大规模视觉语言预训练在各种下游任务上显示出不错的进步。现有方法通常通过每个模态的全局特征的相似性来模拟跨模态交互,或者通过视觉和文本token的交叉/自注意力来模拟细粒度交互。然而,交叉/自注意力在训练和推理方面的效率较低。
机器之心报道 编辑:张倩 既能利用多粒度输入信息,又不降低推理速度,腾讯看点等机构的研究者在一篇 ACL 论文中提出了一种高效的语言模型预训练方法荔枝 LICHEE。经过半年多的摸索改进,荔枝 LICHEE 同时登顶 CLUE 分类榜单、阅读理解榜单、总榜单,其相关的技术创新也被 ACL 2021 录用。 近日,腾讯看点 NLP 内容算法专家郭伟东在机器之心举办的 ACL 论文分享会上对此研究进行了解读,欢迎大家浏览视频。 基于大型语料库的语言模型预训练在构建丰富的上下文表示方面已经取得了巨大的成功,也在
本文提出了Focal Self-Attention,对当前token周围的区域进行细粒度的关注,对离当前token较远的区域进行粗粒度的关注,用这样的方式来更加有效的捕获局部和全局的注意力。基于FSA,作者提出了Focal Transformer,并在分类、检测、分割任务上都验证了结构的有效性。 >>加入极市CV技术交流群,走在计算机视觉的最前沿
雷锋网 AI 研习社按:计算机视觉技术从 70 年代到现在,40 多年时间得到迅速发展,许多计算机视觉的应用出现在了生产生活领域。尤其是到了 2012 年,基于深度学习的图像识别技术出现,极大地提高了计算机视觉的识别精确度,在一些特定场景下,机器的识别错误率已经远低于人眼识别的错误率。与此同时,研究员也发现在真实世界中,那些细粒度,实例级级别的物体识别还存在很大的挑战! 为了能使这一领域得到快速突破,谷歌向全球 CV 领域的开发者们发送了 iNaturalist 2018 挑战赛的邀请函。iNaturali
机器之心专栏 机器之心编辑部 由颜水成老师带领的 Sea AI Lab 提出了一种多粒度自监督学习框架 Mugs[1],用以学习不同粒度的非监督特征,从而满足不同下游任务对不同粒度甚至多粒度特征的需求。在相同的实验设置下(相同数据集和模型等),该方法大幅超越了目前最好的自监督学习方法。在没有使用额外数据的情况下,该方法在 ImageNet 数据集上取得了目前最高的线性评估准确率(linear probing accuracy)82.1% 以及最高的 KNN 分类准确率 80.3%。 详细结果请参看 pape
又开源了一个某机构整理的今日头条数据,可见:今日头条中文新闻文本(多层)分类数据集
标题:Persistent Homology based Graph Convolution Network forFine-grained 3D Shape Segmentation
专栏《图像分类》正式完结啦!我们从数据集展开讲解,由最基本的多类别图像分类一步步深入到细粒度图像分类、多标签图像分类,再到更加有难度的无监督图像分类,随后我们又对图像分类中面临的各种问题展开描述,较为全面的汇总了图像分类领域的相关内容。至此,我们再对整个图像分类专栏的内容进行一个大总结!
选自CVPR 2017 机器之心编译 参与:Smith、路雪、蒋思源 通过计算机视觉方法识别纹理细密的物体种类已经受到了学界的强烈关注。这一类任务往往是极具挑战性的,这是因为一些纹理细密的物体种类只能被该领域的专家所识别出来。与一般的识别不同,细粒度图像识别(fine-grained image recognition)是应该能够进行局部定位(localizing),并且能在其从属(subordinate)类别中表征很小的视觉差异的,从而使各种应用受益,比如专家级的图像识别、图像标注等等。 微软亚洲研究院梅
AI 研习社按:本文由美国莱斯大学博士后牛力为 AI 科技评论提供的独家稿件,未经许可不得转载。
BERT 等预训练语言模型在自然语言理解(Natural Language Understanding, NLU)的许多任务中均表现出了卓越的性能。
AI 科技评论按:本文由美国莱斯大学博士后牛力为 AI 科技评论提供的独家稿件,未经许可不得转载。
本文分享论文『A free lunch from ViT- Adaptive Attention Multi-scale Fusion Transformer for Fine-grained Visual Recognition』,被称为来自 ViT 的免费午餐!由北大&阿里提出用于细粒度视觉识别的自适应注意多尺度融合Transformer:《AFTrans》。
文章于2023年发表于CVPR会议上的一篇论文。该会议是计算机视觉任务中的TOP会议。 论文地址:https://arxiv.org/abs/2208.09424 开源地址:暂未开源(重点是Idea)
本文来自SPIE论文展示,论文标题是“Review and comparative analysis of parallel video encoding techniques for VVC”。
本文介绍的是CVPR2020 满分论文《FineGym: A Hierarchical Video Dataset for Fine-grained Action Understanding》,作者为香港中文大学博士邵典。
自从2012年的ILSVRC竞赛Alexnet赢得冠军以来,计算机视觉已经非常出色了。这是人们在开始研究这项快速发展的技术时经常会遇到的说法。这个博客是为了理解细粒度视觉分类(FGVC)这一具有挑战性的问题,下面的文章将对此进行详细描述。
论文: Attention Convolutional Binary Neural Tree for Fine-Grained Visual Categorization
医学图像是临床实践中必不可少的诊断工具。由于医疗状况通常以存在小特征(例如微钙化、骨折)为特征,因此需要以高空间分辨率采集图像,以捕获所需的细节。然而,高分辨率医学图像通常具有较大的尺寸,特别是当覆盖较大的解剖区域时;这可能会导致计算机辅助诊断(CAD)复杂性增加。因此,有效的压缩方法对于实现医学图像的计算上可行的分析是必要的。
机器之心专栏 机器之心编辑部 还记得支付宝「扫鼻子,找狗子」的新功能吗?最近,研究者把论文公布了出来。 世上没有两片完全相同的树叶,也没有完全相同的两个狗 / 猫鼻子。 前段时间,机器之心报道了支付宝上线的一个新功能:利用鼻纹识别帮助养宠物的家庭寻找走失宠物。这一功能的操作非常简单。首先,打开支付宝搜「防走丢」,然后录入宠物鼻纹信息,你就可以为自己的宠物领取一张独一无二的电子「身份证」。一旦宠物走丢,你可以一键报失,如果路人看到走丢宠物,可用支付宝扫鼻纹进行识别,通过虚拟号码联系你,送宠物回家。 这项看
机器之心专栏 作者:蚂蚁集团-大安全-数字身份及安全生态、浙江大学 来自浙江大学和蚂蚁集团 - 大安全 - 数字身份及安全生态的研究者提出了一种基于标签关系树的层级残差多粒度分类网络 HRN。 基于有监督式深度学习的图像识别任务中一个方面要求是构建整理大规模、高质量的标注数据,这就对图像质量和标注人员的背景知识有比较高的要求。例如,在细粒度分类任务中,标注人员需要依赖大量的领域知识去区分各种种类的鸟以及不同型号的舰船,如图 1 所示。 图 1: 不同种类的信天翁以及不同型号的航母 在图 1 中,标注人员需
一直以来,Transformer的性能距离最佳的CNN仍存在差距,而今天由颜水成团队开源的新秀VOLO打破了这一宿命,成为了ImageNet数据上首个无需额外数据达到87.1%的模型。
大家好,今天我将在有三AI开设新专栏《图像分类》。在这个专栏中,我将全方位介绍图像分类相关知识,并结合不同任务需求进行实战,和大家一同走近这看似简单却包罗万象的基础性技术,同时指导计算机视觉、深度学习领域的初学者快速、准确、全面地掌握图像分类的相关知识。
经典的细粒度情感分析(ABSA,Aspect-based Sentiment Analysis)主要包含三个子任务,分别为属性抽取、观点抽取以及属性-观点对的情感倾向判定三个级联任务。
在上几篇博文中,我们聊到过volatile关键字,用它修饰变量可以保证可见性与有序性,但它并不是锁,在使用时并不会阻塞线程,且不保证原子性,属于一种轻量级、高效的同步方式,因此,如果我们的使用场景仅需要保持可见性或者有序性,那可选择volatile,但如果必须保证原子性的话,volatile就不行了。
模型名为Semantic-SAM,顾名思义,在完全复现SAM分割效果的基础上,这个AI还具有两大特点:
文前吐槽一下:微信公证号的原创是个摆设吗?这篇文章昨天发出来之后,在几个“大佬”的公众号处看到了与这篇文章“神似”的翻译,甚至就连文中吐槽、结尾亮点都一样,翻译的措辞更是如出一辙。很难不让人想到:这篇文章被洗稿了。单就翻译而言,每个人都有自己的措辞风格,如果全篇措辞风格99%神似,呵呵...... 但不管怎么说,这篇文章还是非常值得研读一番,故再次推荐给各位。
近来,Transformer在CV领域遍地开花,取得了非常好的性能,指标屡创新高。但Transformer的性能距离最佳的CNN仍存在差距,不由产生出一种Transformer不过如此的感觉。
领取专属 10元无门槛券
手把手带您无忧上云