远程物体定位是指根据自然语言描述自动确定本地环境中目标物体位置的任务。这对家用机器人至关重要,它们需要执行诸如"把儿童卫生间洗手台上的眼镜拿给我"之类的指令。
在智能机器人与系统国际会议上发表的一篇论文中,研究团队提出了一种基于基础模型的远程物体定位新方法。该方法将远程物体定位视为信息检索问题,通过"技巧组合"使基础模型适应新应用,在一个基准数据集上实现了10%的性能提升,在另一个数据集上提升5%。
近年来,基础模型通过掩码训练方式在多个AI领域带来革命性变化。本研究采用的视觉语言模型能够联合表示文本描述和视觉描绘的同一物体。
研究假设家用机器人已建立包含物体视觉表示的3D环境地图。模型将语言描述作为查询,从视觉环境表示中检索对应物体。
该方法在两个基准数据集上测试均显著优于现有最优模型。实际机器人部署表明,该算法能够实时高精度执行指令。在机器人缺乏先验环境知识时,还可使用前沿探索方法映射候选物体位置。
研究领域:机器人技术、搜索与信息检索、对话式AI、计算机视觉
技术标签:人机交互、自主机器人
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。