Learning Attentions: Residual Attentional Siamese Networkfor High Performance Online Visual Tracking
王强大神维护的benchamark-results跟踪结果:https://github.com/foolwood/benchmark_results
论文下载地址:http://www.dcs.bbk.ac.uk/~sjmaybank/CVPR18RASTrackCameraV3.3.pdf
论文代码:https://github.com/foolwood/RASNet
1. 摘要:
基于离线训练的目标跟踪可以很好的平衡准确率和跟踪速度,但是基于离线训练的模型来适应在线跟踪目标仍然是一个挑战。本文在孪生网络里面重构了相关滤波、加入了三种Attention机制。该算法缓解了深度学习中过拟合的问题,同时将表征学习和判别学习分开来增强算法的判别能力和适应能力。算法在OTB2015和VOT2017的跟踪里面取得了很好的结果,速度可以到达80fps。
2. 文章的三个主要的贡献:
3. 算法跟踪过程:
4. Attention机制
5.加权相关滤波:
作者认为蓝色的框比绿色的框更能表示所跟踪的目标。所以用加权相关滤波来表示这种特征,找到一个响应值最大的跟踪框(找到图中蓝色的跟踪框)。
6. 跟踪结果:(没什么好说的,就是效果好速度快。)
论文看的还不是很明白,有什么错误还请大家指正。