论文阅读笔记
- 论文题目:Deep Adversarial Metric Learning
- 论文创新点:DAML利用大量 易辨识的负例( easy negatives)生成 难辨识的负例(hard negatives);现存的度量学习(metric learning)方法仅利用数量少的hard negatives而忽略数量多的easy negatives。如下图所示,

- 具体内容:
DAML的网络结构如下:
DAML的目的是通过优化设计好的目标函数 θfa=θfargminJm(θf;xi,xi+,x~i−,f)来获得参数θf,这里x~i−表示产生的负例(negative sample),x~i−=G(θg;xi−,xi,xi+)。
生成器(generator)的目标函数为:
θgminJgen=Jhard+λ1Jreg+λ2Jadv=i=1∑N(∣∣x~i−−xi∣∣22+λ1∣∣x~i−−xi−∣∣22+λ2[D(x~i−,xi)2−D(xi+,xi)2−α]+)。
对抗性度量学习(Deep Adversarial Metric Learning)的框架可以应用于有监督度量学习的各种目标函数,即用以下目标函数同时训练 难辨识的负例生成器(hard negative generator)和距离度量:
θg,θfminJ=Jgen+λJm
DAML (cont):对于contrastive embeddings,Jm=i=1∑NiD(xi+,xi)2+j=1∑Nj[α−D(x~j−,xj)2]+
DAML (tri):对于triplet embeddings,
Jm=i=1∑N[D(xi+,xi)2−D(x~i−,xi)2+α]+
DAML (lifted):对于lifted structure,
Jm=2Ni1i=1∑Nimax(0,Ji+,i)
Ji+,i=max(maxα−D~(xi+), maxα−D~(xi))+D(xi+,xi)
这里D~(X)表示负例对(negative pairs)到X的距离。
DAML (N-pair):对于 N-pair loss,
Jm=C1c=1∑Clog(1+c′̸=c∑exp(D(xc,x~c′+)−D(xc,xc+)))这里D(xi,xj)=fiTfj是在N-pair loss度量相似性。
来源:CSDN
作者:Allen_David
链接:https://blog.csdn.net/gzw110605110/article/details/84845342