计算机视觉笔记七:Person Re-Identification With Metric Learning Using Privileged Information

匿名 (未验证) 提交于 2019-12-03 00:22:01

TIP2018的

right @IEEE TRANSACTIONS ON IMAGE PROCESSING, VOL. 27, NO. 2, FEBRUARY 2018

吸引我的是其中应用的metric learning。我一直以为,metric learning其实和传统的dense prediction以及各种CNN背后的东西是一致的。你现在有这些东西,比方说一堆图片,那么机器怎么看待它们之间的差异?一种度量方式就创建了一个非欧空间,在什么样的理想空间,能够让机器的识别率爆表。很有意思。

我花在abstract上的时间越来越多了,因为我发现,论文读到一半,可以回头看看abstract,佐证一下自己的思路。还有预见性,总之,一个好论文的abstract是作者思路的结晶,值得多读几遍。

1 abstract

本论文研究的领域是人脸再识别 ,比方说苹果手机的解锁,就是再识别你的脸。你要是画个大浓妆,指不定还能不能解锁。画个角度,换个表情,都会影响你的解锁(再识别)。

characteristic

  • logistic discriminant metric learning
  • exploit both original and auxiliary data(privileged information)
  • auxiliary information only avaliable in training(such as label in cnn)

目标:

学习到距离函数,例如输入两个feature告诉你多远。打个比方二维空间(0,0),(3,4)之间的度量函数就是二范数,于是结果就是5.

距离函数的学习:

利用privilege information建立locally adaptive decision rule

样本点 O1,O2是origin的数据,P1,P2是privilege的数据。

DO(O1,O2) 与DP(P1,P2)之间的差距小。

1,O2而3,12分别是P1,P2,那么DO(O1,O2)=5,DP(P1,P2)=9(直接做减法12-3),我现在要对我的数据找到两种新的度量方式(也就是两个metric function),让DO(O1,O2) 与DP(P1,P2)之间的差距小。比如把DP(P1,P2)从减法变成除法(12/3).

O(O1,O2) 与DP(P1,P2)之间的差距也是一种距离啊,也可以想点办法啊,后来又想不过就是Dd[DO(O1,O2) ,DP(P1,P2)].这就是三个度量的学习,不知道作者有没有简化到两个度量学习,还是说把Dd固定了下来,然后根据这个度量方式,调整DoDp,那么,可不可以固定两个度量方式,只学习一个。这能映射到数学上的什么问题?有点意思。拭目以待。

还有三句abstract就完事了:

Dp可以被认为是local decision threshold, and guide original space decision making。

探究一下complementation of mutiple feature representations .也就是说,privilege 是一样的针对不同多种feature的表达,设计不同的metric。需要看论文具体。

最后再优化一下,可以同时给出metric并且给出metric的权重。需要看论文具体。

好了到这里你就可以决定这个对你有用没用,要不要继续看下去了。

Introduction



易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!