首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Iris: 比ScanContext更加精确高效的激光回环检测方法(IROS 2020)

该全局描述符具有旋转不变性,避免了暴力搜索,节约了计算资源。 与现有的LIDAR全局描述符相比,该描述符的性能达到了SOTA。...执行上可以分解为三个模块,一是生成Lidar-Iris图像的表示;二是通过傅立叶变换使得Lidar-Iris具有平移不变性;三是基于LoG-Gabor滤波器的二值特征提取。...一方面,与现有的基于直方图的全局描述符相比,所提出的编码过程不需要对每个bin中的点进行计数,从而提高了计算效率;另一方面,该编码过程是固定的,不需要像CNNs模型那样预训练。...假设两个Lidar-IRIS图像仅仅差别一个位移: 那么这两个图像之间的傅立叶变换可以定义为: 对应的,归一化的交叉功率谱定义为: 3.基于LoG-Gabor滤波器的二值特征提取 使用LoG-Gabor...5.实验结果 1)亲和矩阵可视化 第一行表示KITTI05的数据集,第二行表示作者自己采集的小规模数据集,第一列表示真值生成的亲和矩阵,第二列到第五列分别表示Lidar-IRIS,ScanContext

1.4K20
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    Iris: 比ScanContext更加精确高效的激光回环检测方法(IROS 2020)

    该全局描述符具有旋转不变性,避免了暴力搜索,节约了计算资源。 与现有的LIDAR全局描述符相比,该描述符的性能达到了SOTA。...执行上可以分解为三个模块,一是生成Lidar-Iris图像的表示;二是通过傅立叶变换使得Lidar-Iris具有平移不变性;三是基于LoG-Gabor滤波器的二值特征提取。...一方面,与现有的基于直方图的全局描述符相比,所提出的编码过程不需要对每个bin中的点进行计数,从而提高了计算效率;另一方面,该编码过程是固定的,不需要像CNNs模型那样预训练。...假设两个Lidar-IRIS图像仅仅差别一个位移: 那么这两个图像之间的傅立叶变换可以定义为: 对应的,归一化的交叉功率谱定义为: 3.基于LoG-Gabor滤波器的二值特征提取 使用LoG-Gabor...5.实验结果 1)亲和矩阵可视化 第一行表示KITTI05的数据集,第二行表示作者自己采集的小规模数据集,第一列表示真值生成的亲和矩阵,第二列到第五列分别表示Lidar-IRIS,ScanContext

    1.2K20

    【论文笔记】Efficient Dialogue State Tracking by Selectively Overwriting Memory

    ,以解决基于预定义本体的方法的可伸缩性和泛化问题。...SimpleTOD 提高了对话状态跟踪的现有最新的联合目标精度,我们的分析揭示了在这种设置下对噪声注释的鲁棒性。...设第 t 轮对话为 U_t, 为了在推理过程中生成响应,SimpleTOD 将之前的所有回合读取为上下文, , 并生成对话状态 B_t: 这是记录特定域中的插槽值的三元组列表:(域、slot_name...利用概率链规则对这个分布进行因式分解是很自然的, 并训练一个具有参数 θ 的神经网络,以最小化数据集 上的负对数似然,其中,序列 x^t 的长度为 n_t: 架构 作者通过训练 Transformer...第 i 层由两个块组成,每个块保留模型维数 d。第一个块使用了带有 k 个头的多头注意力。 第二个块使用具有 ReLU 激活的前馈网络,将输入投影到内部维度 f。

    95910

    时间序列表示学习的综述

    3.1.1 网络级别组合 在时间序列学习方面,有基于小波的神经架构mWDN,通过集成多级离散小波分解到现有神经网络中,构建频率感知深度模型。...TARNet通过使用数据驱动的掩码策略来学习重建重要的时间戳来提高下游任务的性能。UniTTab在预训练阶段使用时间依赖异构表格数据的行和时间戳掩码以及邻域标签平滑来处理异构性问题。...5.1.2 基于策略的增强 TimeCLR通过动态时间扭曲的增强,诱导时间序列数据的相位偏移和振幅变化,同时保留其结构和特征信息。...5.2.1 时间序列分解 mWDN[48]是早期将多层次离散小波分解与深度神经网络结合的方法,旨在保留频率学习优势并优化微调参数。...冻结协议中,我们不对预训练的进行更新,训练使用的计算预算较少,收敛速度更快。微调协议中,我们同时训练预训练的和,以获得下游任务的性能提升。微调协议比冻结协议需要更多的计算预算,但在实践中表现得更好。

    40310

    全新剪枝框架 | YOLOv5模型缩减4倍,推理速度提升2倍

    自动驾驶车辆中使用的目标检测器可能具有较高的内存和计算开销。在本文中介绍了一种新的半结构化剪枝框架R-TOSS,它克服了现有模型剪枝技术的缺点。...同时,与结构化剪枝不同,它不会剪枝整个卷积核权重,从而保留更多信息,从而确保更好的准确性。因此,理想情况下,基于模式的剪枝技术可以生成具有高稀疏性和高精度的模型。...因此,本文的方法增加了模型的稀疏性,同时保留了有助于模型准确性的重要信息。...4.1、DFS算法 算法1显示DFS算法的伪代码。 使用预训练的模型作为输入,使用从反向传播获得的梯度来计算计算图(G)。初始化一个空列表(group_list)(第2行)以存储父子图层组。...这个过程一直持续到列表末尾,或者如果值小于9。此时,剩余的权重被视为零权重并被修剪(第13行)。然后,使用算法2对temp_array中的临时3×3权重矩阵执行3×3 kernel修剪(第14行)。

    2.1K11

    一键让二次元老婆微笑,还能把猫脸变成狗脸,这篇CVPR 论文真有趣

    现有的脸部属性编辑模型面临的一个主要挑战是要同时满足两个要求: (1)正确地修改想要的属性;(2)保留其它无关的信息。...另一部分方法则把注意力放在对GAN学到的隐空间中进行隐变量的分解,从而通过分解得到属性相关的向量。给定一个预训练好的GAN模型,它们通过学习子映射的方式将原向量映射到表达对应属性的向量。...2 方法 在介绍我们的方法之前,我们先定义“域”这一概念。“域”指的是某些属性的值构成的组合。...PA-GAN是基于空间注意力的方法,因此它较好地保留了一些无关的信息,例如背景等,但是可以看到,面对难以定义确定修改区域的“笑容”属性,其通常会出现修改不充分的情况,因而无法正确地编辑属性。...这得益于提出的新的风格转换器将隐向量分解为属性相关的部分和属性无关的部分,并对转换前后的向量施加了垂直约束。大量的实验证明了我们提出的L2M-GAN比其他现有的方法有明显的改进。

    51820

    密苏里大学许东团队提出S-PLM模型,通过序列和结构对比学习的语言模型进行蛋白质预测

    一种选择是通过调整预训练的权值来微调ESM2模型,这在集成结构信息的同时保留了ESM2编码器的原始架构。...其次,它允许连续训练以添加新的蛋白质特征(例如蛋白质功能),以用于模型的未来扩展,而不会忘记先前学习的特征,因为S-PLM预训练保留了ESM2模型的序列表示能力,而ESM2主干模型(架构及其权重)完好无损...为了训练新的下游任务,将一个新的可训练适配器模块添加到并行适配器列表中,同时冻结所有先前添加的并行适配器。...图3a的每一行显示了一个层次结构中最具代表性的五个类别的蛋白质嵌入的t-SNE可视化。结果表明,S-PLM的序列表示比其他模型的嵌入更能清晰地分离CATH结构类。...S-PLM序列编码器通过在预训练的ESM2模型上使用结构感知对比学习模块,生成融合三维结构信息的序列表示,同时保持ESM2原有的序列表示能力。

    14510

    好文速递:​空间分解去除降尺度MODIS块效应

    SU-BR改进了现有的基于空间分解的方法。 SU-BR适用于现有的基于空间分解的融合方法。 基本方法: 基于空间加权的模型是一种常见的时空融合方法。 其中之一为时空自适应反射融合模型。...时空融合模型的另一个主要类别是空间分解。基于空间分解的方法的基本原理是通过对每个粗像素应用分解算法来预测精细的空间分辨率像素的值。 基于空间分解的方法具有几个独特的优势。...此外,类内光谱变化主要由不均匀的空间模式和土地覆盖物的时间变化(尤其是同一类)引起,是块状伪影的原因,因为在空间分解中,每个土地覆盖物类仅预测一个反射率值。...然而,这些方法并非设计用于解决仍保留在预测中的块状伪像。 提出了一种基于块分解的空间分解方法(SU-BR),以消除基于空间分解的方法中的块状伪像,并进一步提高了时空融合的准确性。...SU-BR有两个主要优点: SU-BR可以消除块状伪影并同时提高预测精度。SU-BR通过根据土地覆被的空间连续性施加新的约束来消除空间分解中的障碍。

    49750

    20项任务全面碾压BERT,CMU全新XLNet预训练模型屠榜(已开源)

    这导致 AR 语言建模无法实现有效预训练。 相反,基于 AE 的预训练模型不会进行明确的密度估计,而是从残缺的输入中重建原始数据。一个著名的例子就是 BERT。...两大阵营间需要新的 XLNet 现有的语言预训练目标各有优劣,这篇新研究提出了一种泛化自回归方法 XLNet,既集合了 AR 和 AE 方法的优势,又避免了二者的缺陷。...同时,自回归目标提供一种自然的方式,来利用乘法法则对预测 token 的联合概率执行因式分解(factorize),这消除了 BERT 中的独立性假设。...我们自然要问,是否存在一种预训练目标函数可以取二者之长,同时又克服二者的缺点呢?...研究者借鉴了无序 NADE 中的想法,提出了一种序列语言建模目标,它不仅可以保留 AR 模型的优点,同时也允许模型捕获双向语境。具体来说,一个长度为 T 的序列 x 拥有 T!

    58630

    替换Transformer!谷歌提出 Performer 模型,全面提升注意力机制!

    常规的 softmax 注意力可以看作是由指数函数和高斯投影定义的非线性函数的一个特例。...该研究首次证明了,任意注意力矩阵都可以通过随机特征在下游 Transformer 应用中实现有效地近似。...虽然在分解注意力矩阵之后,原始注意力机制与具有值输入的存储注意力矩阵相乘以获得最终结果,我们可以重新排列矩阵乘法以近似常规注意力机制的结果,并且不需要显式地构建二次方大小的注意力矩阵。...左:标准注意力模块计算,其中通过执行带有矩阵 A 和值张量 V 的矩阵乘法来计算最终的预期结果;右:通过解耦低秩分解 A 中使用的矩阵 Q′和 K′以及按照虚线框中指示的顺序执行矩阵乘法,研究者获得了一个线性注意力矩阵...研究者进一步证明,使用无偏 softmax 近似,该 Performer 模型在稍微进行微调之后可以向后兼容预训练 Transformer 模型,从而在提升推理速度的同时降低能耗,并且不需要从头训练预先存在的模型

    1.7K30

    DeepSeek的MLA,任意大模型都能轻松迁移了

    使预训练的任意 LLMs 快速迁移至 MLA 架构而无需从头预训练,这既有重大意义又具有挑战性。...其次拼接值的变换矩阵(W_v)和 PE 无关的键的变换矩阵(W_{k, nope}),并进行 SVD 分解得到降维变换矩阵和升维变化矩阵,中间的键值联合低秩表示对齐 MLA,完成了缓存对象的对齐以及运算形式的对齐...,检验低频成分在语义理解任务中的潜在作用;3)均匀采样策略 S_uniform,等间隔均匀采样频率保留位置频率;4)使用查询、键向量范数乘积 (2-norm) 近似注意力贡献值 [2] 的筛选策略 S_...为最大化保留预训练知识,本文提出两种基于奇异值分解 (SVD) 的投影矩阵初始化策略:1)SVD_split,分别对矩阵进行低秩分解,保持各自的表征特性;2)SVD_joint,考虑键值矩阵之间的关联性...该框架展现了与现有压缩技术的强兼容性,同时保持了常识推理和长上下文处理能力,为部署资源高效的 LLMs 提供了一条实用路径。

    11310

    20项任务全面碾压BERT,CMU全新XLNet预训练模型屠榜(已开源)

    这导致 AR 语言建模无法实现有效预训练。 相反,基于 AE 的预训练模型不会进行明确的密度估计,而是从残缺的输入中重建原始数据。一个著名的例子就是 BERT。...两大阵营间需要新的 XLNet 现有的语言预训练目标各有优劣,这篇新研究提出了一种泛化自回归方法 XLNet,既集合了 AR 和 AE 方法的优势,又避免了二者的缺陷。...同时,自回归目标提供一种自然的方式,来利用乘法法则对预测 token 的联合概率执行因式分解(factorize),这消除了 BERT 中的独立性假设。...我们自然要问,是否存在一种预训练目标函数可以取二者之长,同时又克服二者的缺点呢?...研究者借鉴了无序 NADE 中的想法,提出了一种序列语言建模目标,它不仅可以保留 AR 模型的优点,同时也允许模型捕获双向语境。具体来说,一个长度为 T 的序列 x 拥有 T!

    59220

    原创 | 一文读懂主成分分析

    特征向量可以理解为是坐标轴,一个特征向量定义一条直线,是一维;两个相互垂直的特征向量定义一个平面,即一个直角坐标系,就是二维;三个相互垂直的特征向量定义一个空间,即一个立体直角坐标系,就是三维;三个以上的特征向量相互垂直...(这里的核心问题是协方差矩阵的特征值分解) 例题:已知现在有一个二维矩阵,如下所示,请降至一维。 解: 1)原始数据是两行五列矩阵,其中n=2,m=5; 2)这是一个已经去掉均值的矩阵。...6)最后用Q的第一行乘以X矩阵,就得到了降维后的表示: 降维投影结果如下图所示: 图4 降维投影结果 2.4 选择主成分个数(即k的值) 那么该如何选择k,即保留多少个PCA主成分呢?...决定k值时,通常会考虑不同k值可保留的方差百分比。...是奇异值分解器的意思,为什么PCA算法会有有关奇异值分解的参数?

    94520

    20 项任务全面碾压 BERT,CMU 全新 XLNet 模型屠榜,代码已开源!

    这导致 AR 语言建模无法实现有效预训练。 相反,基于 AE 的预训练模型不会进行明确的密度估计,而是从残缺的输入中重建原始数据。一个著名的例子就是 BERT。...两大阵营间需要新的 XLNet 现有的语言预训练目标各有优劣,这篇新研究提出了一种泛化自回归方法 XLNet,既集合了 AR 和 AE 方法的优势,又避免了二者的缺陷。...同时,自回归目标提供一种自然的方式,来利用乘法法则对预测 token 的联合概率执行因式分解(factorize),这消除了 BERT 中的独立性假设。...我们自然要问,是否存在一种预训练目标函数可以取二者之长,同时又克服二者的缺点呢?...研究者借鉴了无序 NADE 中的想法,提出了一种序列语言建模目标,它不仅可以保留 AR 模型的优点,同时也允许模型捕获双向语境。具体来说,一个长度为 T 的序列 x 拥有 T!

    64010

    tf.compat

    .): 计算张量x沿轴的累积积。cumsum(...): 沿着轴计算张量x的累积和。custom_gradient(...): 修饰符来定义具有自定义渐变的函数。....): 返回张量的对角线部分。digamma(...): 计算,的导数(的绝对值的对数)dimension_at_index(...): 兼容性实用程序需要允许在TF中同时存在V1和V2行为。....): 兼容性实用程序需要允许在TF中同时存在V1和V2行为。disable_eager_execution(...): 禁用急切的执行。....): 将任何类似字符串的python输入类型转换为unicode。dimension_at_index(...): 兼容性实用程序需要允许在TF中同时存在V1和V2行为。....): 兼容性实用程序需要允许在TF中同时存在V1和V2行为。forward_compatibility_horizon(...): 上下文管理器,用于测试生成的图的正向兼容性。

    5.3K30

    MySQL Innodb和Myisam

    可以读取页,因为它是用户启动的操作(例如 SQL 查询)所必需的,或者是由 自动执行的预读操作的一部分 InnoDB。 访问旧子列表中的页使其 “年轻”,将其移动到新子列表的头部。...可以将经常访问的数据保留在内存中,而不管操作的活动突然激增,这些操作会将大量不常访问的数据带入缓冲池。 可以控制如何以及何时执行预读请求以异步地将页预取到缓冲池中,以预期很快就会需要这些页。...InnoDB支持四种行格式,每种格式具有不同的存储特性,支持行格式包括REDUNDANT、COMPACT、 DYNAMIC(默认)、COMPRESSED。...4、主键 选择主键的特征: 最重要的查询引用的列 永远不会留空的列 从不具有重复值的列 插入后很少更改值的列 5、查看 InnoDB 表属性 要查看InnoDB表的属性,执行 SHOW TABLE STATUS...,仍然可能会损坏表: mysqld的进程在写中间被杀害 发生意外的计算机关机 硬件故障 正在使用外部程序(例如 myisamchk)来修改同时由服务器修改的表 MySQL 或MyISAM 代码中的软件错误

    1.7K20

    如何简单高效地定制自己的文本作画模型?

    这就需要模型具有一定的“定制”能力。也就是说如果给定少量用户提供的图像,我们能否用新概念(例如宠物狗或者“月亮门”,如图所示)增强现有的文本到图像扩散模型?...fine-tuning后的模型应保留其先验知识,允许根据文本提示使用新概念生成新的图像类型。这可能具有挑战性,因为更新的文本到图像的映射可能很容易过拟合少数可用图像。...图片 可以发现,增加约束还是让模型具有更强的表征能力的。最下面一行才和真正的门比较相似,同时生成的月亮也非常合理。 4....第四行:改变对象属性,如花瓣的颜色。第五行:用太阳镜装饰私人宠物猫。我们的方法比基线更好地保留了视觉相似性,同时仅更改花瓣颜色或为猫添加太阳镜。...只需使用一些有限的图像示例, 新方法就能一高效的方法生成微调概念的新样本同时保留原有的生成能力。而且,我们只需要保存一小部分模型权重。

    1.1K11

    深度学习进阶篇7:Transformer模型长输入序列、广义注意力、FAVOR+快速注意力、蛋白质序列建模实操。

    为了解决这些问题,Performer提出了一个具有线性复杂度的注意力,其注意力机制可线性扩展,从而实现更快的训练,同时允许模型处理较长的长度,这对于某些图像数据集(如ImageNet64)和文本数据集(...虽然在分解注意力矩阵之后,原始注意力机制与具有值输入的存储注意力矩阵相乘以获得最终结果,我们可以重新排列矩阵乘法以近似常规注意力机制的结果,并且不需要显式地构建二次方大小的注意力矩阵。...:标准注意力模块计算,其中通过执行带有矩阵 A 和值张量 V 的矩阵乘法来计算最终的预期结果;右:通过解耦低秩分解 A 中使用的矩阵 Q′和 K′以及按照虚线框中指示的顺序执行矩阵乘法,研究者获得了一个线性注意力矩阵...文章进一步证明使用无偏 softmax 近似的Performer 模型,在微调之后可以向后兼容预训练 Transformer 模型,从而在提升推理速度的同时降低能耗,且无需完全重新训练已有的模型。...同时研究人员还提供了论文、 Performer的代码和蛋白质语言模型的代码链接。该研究首次证明了,任意注意力矩阵都可以通过随机特征在下游 Transformer 应用中实现有效地近似。

    75800

    谷歌 | 大改Transformer注意力,速度、内存利用率都大幅度提升(附源代码)

    该研究首次证明了,任意注意力矩阵都可以通过随机特征在下游Transformer应用中实现有效地近似。...虽然在分解注意力矩阵之后,原始注意力机制与具有值输入的存储注意力矩阵相乘以获得最终结果,我们可以重新排列矩阵乘法以近似常注意力机制的结果,并且不需要显式地构建二次方大小的注意力矩阵。...Fig 1 左:标准注意力模块计算,其中通过执行带有矩阵A和值张量V的矩阵乘法来计算最终的预期结果;右:通过解耦低秩分解A中使用的矩阵Q′和K′以及按照虚线框中指示的顺序执行矩阵乘法,研究者获得了一个线性注意力矩阵...,同时不用显式地构建A或其近似。...研究者进一步证明,使用无偏softmax近似,该Performer模型在稍微进行微调之后可以向后兼容预训练Transformer模型,从而在提升推理速度的同时降低能耗,并且不需要从头训练预先存在的模型。

    93450
    领券