论文地址: http://arxiv.org/pdf/2008.08826v1.pdf
代码: https://github.com/shijies/omnimotdataset
来源: 长安大学,西澳大利亚大学,迪肯大学,中佛罗里达大学
论文名称:Simultaneous Detection and Tracking with Motion Modelling for Multiple Object Tracking
原文作者:ShiJie Sun
内容提要
基于深度学习的多目标跟踪(MOT)目前依赖于现成的检测器进行检测跟踪。这导致深度模型带有检测器的偏差,同时评估受到检测器的影响。为了解决这一问题,我们引入了深度运动建模网络(DMM-Net),该网络以端到端方式进行联合检测和关联,可以估计多个目标的运动参数。DMM-Net在多个帧上对对象特性进行建模,并同时推断出对象类、可见性及其运动参数。这些输出很容易用于更新tracklet以实现高效的MOT。在著名的UA-DETRAC挑战中,DMM-Net实现了12.80 @ 120+ fps的PR-MOTA得分——这是更好的性能和更快的数量级。我们还提供了一个合成的大规模公共数据集Omni-MOT用于车辆跟踪,提供了精确的真值标注,以消除检测器对MOT评估的影响。这个14M+帧的数据集是可扩展的,我们演示了Omni-MOT对于使用DMM-Net进行深度学习的适用性,并公开了我们的网络源代码。
主要框架及实验结果