作者:Jason Ku,Alex D. Pon,Sean Walsh,Steven L. Waslander
摘要:准确估计行人的方向是自动驾驶的一项重要且具有挑战性的任务,因为这些信息对于跟踪和预测行人行为至关重要。本文提出了一种灵活的虚拟多视图合成模块,可以用于三维物体检测方法,以改善方向估计。该模块使用多步骤过程来获取精确定向估计所需的细粒度语义信息。首先,使用保持深度完成算法的结构来对场景的点云进行致密化,并且使用其对应的RGB像素对每个点进行着色。接下来,虚拟摄像机围绕着致密点云中的每个对象放置,以生成新颖的视点,从而保留对象的外观。我们表明,该模块极大地改善了KITTI基准测试中具有挑战性的行人等级的方向估计。当与开源3D探测器AVOD-FPN一起使用时,我们在行人方向,3D和鸟瞰视图基准测试中优于所有其他已发布的方法。
原文标题:Improving 3D Object Detection for Pedestrians with Virtual Multi-View Synthesis Orientation Estimation
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。