首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

SSC:基于点云语义上下文的大规模激光SLAM的位置识别方法

位置识别使SLAM系统具有纠正累积错误的能力,与包含丰富纹理特征的图像不同,点云几乎是纯几何信息,这使得基于点云的位置识别具有挑战性。现有的作品通常将坐标、法线、反射强度等低层特征编码为局部或全局的描述子来表示场景,此外,在匹配描述子时,往往忽略了点云之间的转换,与现有的大多数方法不同,本文探索了使用高级特征(即语义信息)来提高描述子的表示能力,另外,在匹配描述子时,我们尝试校正点云之间的平移以提高精度,具体地说,本文提出了一个新的全局描述子,点云语义上下文信息,它可以更有效地挖掘语义信息来表示场景,本文还提出了一种两步全局语义ICP算法来获得三维姿态(x,y,yaw),用于点云的对齐以提高匹配性能,我们在KITTI数据集上的实验表明,我们的方法比现有的方法有很大的优势。

02

Transformer全靠数据堆?那没有数据怎么办?LUT告诉你「冇问题」|AAAI 2021

---- 新智元报道   作者:叶蓉 编辑:好困 【新智元导读】我们有一个梦想,那就是有一天看剧能有实时翻译字幕。然而级联模型复杂冗长,还容易出现传播错误,端到端模型又缺少标记数据去训练。于是全新的语音翻译模型LUT诞生了,不仅翻译速度快,而且就算听错也能翻译对。 你是否曾遇到这样的场景:在陌⽣的国家旅游因为听不懂当地⼈说话只能咿咿呀呀、⼿语⽐划、连蒙带猜? 因为不懂⼩语种,⼤热悬疑泰剧《禁忌⼥孩》、年度狗⾎韩剧《顶楼》只能煎熬到翌⽇字幕组的熟⾁放送? 每每遇此,我都会想,如果计算机能帮我们⾃动把语⾳

03

智能识别技术 让计算机看懂世界

互联网发展之初受到网络带宽、数据存储等相关技术的限制,信息传播以单模态形式为主,如文字报道、图像相册等。进入大数据时代,信息传播变得丰富多彩,人们从互联网中同时接受图像、视频、文本等不同模态的信息。例如,当我们在互联网上浏览一篇精彩的新闻报道时,不仅可以看到详细的文字描述,还能看到现场拍摄的照片,甚至还有相关的视频报道。这体现了互联网数据从单模态到多模态的转变。 随着互联网多模态数据的出现和传播,“管不住”和“用不好”两大问题也日益突出。“管不住”是指多模态大数据中隐藏着大量涉恐、涉暴等有害信息,极大地

010

离群?异常?新类?开集?分布外检测?一文搞懂其间异同!

在开放世界中分类是验证模型安全性的重要方式,也是一个真正能够商用落地的模型不可避免要面对的问题。传统的分类模型都是在一个封闭的世界中进行训练,即假设测试数据和训练数据都来自同样的分布(称作分布内,in-distribution)。例如我们利用一组猫、狗照片训练一个猫、狗分类器。然而,部署的模型在实际使用中总是会遇到一些不属于封闭世界类别的图片,例如老虎。或者也会遇到一些和训练图片视觉上大相径庭的照片,例如卡通猫。模型应当如何去处理这些不属于训练分布的图片(即分布外样本,out-of-distribution),是开放世界领域所关注的问题。

03

【无监督学习最新研究】简单的「图像旋转」预测,为图像特征学习提供强大监督信号

【新智元导读】在论文中,研究人员训练卷积神经网络来识别被应用到作为输入的图像上的二维旋转。从定性和定量两方面证明,这个看似简单的任务实际上为语义特征学习提供了非常强大的监督信号。 在过去的几年中,深度卷积神经网络(ConvNets)已经改变了计算机视觉的领域,这是由于它们具有学习高级语义图像特征的无与伦比的能力。然而,为了成功地学习这些特征,它们通常需要大量手动标记的数据,这既昂贵又不可实行。因此,无监督语义特征学习,即在不需要手动注释工作的情况下进行学习,对于现今成功获取大量可用的可视数据至关重要。 在我

06

动态 | 百度发布NLP模型ERNIE,基于知识增强,在多个中文NLP任务中表现超越BERT

AI 科技评论消息,Google 近期提出的 BERT 模型,通过预测屏蔽的词,利用 Transformer 的多层 self-attention 双向建模能力,取得了很好的效果。但是,BERT 模型的建模对象主要聚焦在原始语言信号上,较少利用语义知识单元建模。这个问题在中文方面尤为明显,例如,BERT 在处理中文语言时,通过预测汉字进行建模,模型很难学出更大语义单元的完整语义表示。例如,对于乒 [mask] 球,清明上 [mask] 图,[mask] 颜六色这些词,BERT 模型通过字的搭配,很容易推测出掩码的字信息,但没有显式地对语义概念单元 (如乒乓球、清明上河图) 以及其对应的语义关系进行建模。

02
领券