Learning Attentions: Residual Attentional Siamese Network for High Performance 论文读后感

匿名 (未验证) 提交于 2019-12-03 00:19:01

Learning Attentions: Residual Attentional Siamese Networkfor High Performance Online Visual Tracking

王强大神维护的benchamark-results跟踪结果:https://github.com/foolwood/benchmark_results

论文下载地址:http://www.dcs.bbk.ac.uk/~sjmaybank/CVPR18RASTrackCameraV3.3.pdf

论文代码:https://github.com/foolwood/RASNet


1. 摘要:

基于离线训练的目标跟踪可以很好的平衡准确率和跟踪速度,但是基于离线训练的模型来适应在线跟踪目标仍然是一个挑战。本文在孪生网络里面重构了相关滤波、加入了三种Attention机制。该算法缓解了深度学习中过拟合的问题,同时将表征学习和判别学习分开来增强算法的判别能力和适应能力。算法在OTB2015和VOT2017的跟踪里面取得了很好的结果,速度可以到达80fps。

2. 文章的三个主要的贡献:

3. 算法跟踪过程:


4. Attention机制

5.加权相关滤波:


作者认为蓝色的框比绿色的框更能表示所跟踪的目标。所以用加权相关滤波来表示这种特征,找到一个响应值最大的跟踪框(找到图中蓝色的跟踪框)。

6. 跟踪结果:(没什么好说的,就是效果好速度快。)




论文看的还不是很明白,有什么错误还请大家指正。


易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!