原文题目:Visual Tracking via Dynamic Memory Networks
摘要:模板匹配的视觉跟踪方法以其良好的性能和较快的速度获得了广泛的应用。然而,它们缺乏有效的方法来适应目标物体外观的变化,使得它们的跟踪精度仍远未达到最先进的水平。在本文中,我们提出了一个动态记忆网络,以适应目标跟踪过程中的外观变化。外部存储器的读写过程由以搜索特征映射为输入的LSTM网络控制。在初始未知目标位置的情况下,采用空间注意机制将LSTM输入集中在潜在目标上。为了防止模型自适应攻击,我们采用门控残差模板学习来控制与初始模板相结合的检索内存量。为了缓解漂移问题,我们还设计了一个“负”存储单元,用于存储分散器的模板,用于消除来自对象模板的错误响应。为了进一步提高跟踪性能,在特征提取器部分之后增加了辅助分类损失。与目标信息由神经网络的权重参数维持的跟踪检测方法不同,这种方法需要昂贵的在线微调才能适应,我们的跟踪器通过更新外部内存来完全前馈并适应目标的外观变化。此外,我们模型的容量并不像其他跟踪器那样由网络大小决定-随着任务内存需求的增加,容量可以很容易地扩大,这有利于记忆长期的对象信息。在OTB和VOT数据集上的广泛实验表明,我们的跟踪器在保持实时速度的同时,对最先进的跟踪方法表现出了良好的效果。
原文地址:https://arxiv.org/abs/1907.07613
作者:Tianyu Yang, Antoni B. Chan
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。