首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

CVPR2022 | 利用域自适应思想,北大、字节跳动提出新型弱监督物体定位框架

机器之心专栏 作者:朱磊 将弱监督物体定位看作图像与像素特征域间的域自适应任务,北大、字节跳动提出新框架显著增强基于图像级标签的弱监督图像定位性能。 物体定位作为计算机视觉的基本问题,可以为场景理解、自动驾驶、智能诊疗等领域提供重要的目标位置信息。然而,物体定位模型的训练依赖于物体目标框或物体掩模等密集标注信息。这些密集标签的获取依赖于对图像中各像素的类别判断,因此极大地增加了标注过程所需的时间及人力。 为减轻标注工作的负担,弱监督物体定位 (WSOL) 通过利用图像级标签(如图像类别)作为监督信号进行物

05

用于大规模视觉定位的直接2D-3D匹配(IROS 2021)

摘要:估计图像相对于 3D 场景模型的 6 自由度相机位姿,称为视觉定位,是许多计算机视觉和机器人任务中的一个基本问题。在各种视觉定位方法中,直接 2D-3D 匹配方法由于其计算效率高,已成为许多实际应用的首选方法。在大规模场景中使用直接 2D-3D 匹配方法时,可以使用词汇树来加速匹配过程,但这也会引起量化伪像,从而导致内点率降低,进而降低了定位精度。为此,本文提出了两种简单有效的机制,即基于可见性的召回和基于空间的召回,以恢复由量化伪像引起的丢失匹配。从而可以在不增加太多的计算时间情况下,大幅提高定位精度和成功率。长期视觉定位 benchmarks 的实验结果,证明了我们的方法与SOTA相比的有效性。

01
领券