1. “稳健”模型:满足L约束
(1)对于参数扰动的稳定性
如模型


(2)对于输入扰动的稳定性
如


2. L约束:
当


存在某个常数C(与参数有关,与输入无关),使下式恒成立

其中,

3. 神经网络中的L约束:
单层全连接



让


由于现有激活函数如sigmoid,relu等满足“导数有上下界”,则


希望C尽可能小,从而给参数带来一个正则化项
4. 矩阵范数:
F范数(Frobenius Norm):(又称L2范数)――deep中常用的L2正则化就是这种。

通过柯西不等式,有

谱范数(Spectral Norm):(又称2范数或谱半径)


谱范数



则:





5. L2正则项:(L2正则化与F范数的关系)
由于谱范数暂时没有计算出来,则先计算一个更大的上界


表明L2正则化使模型更好地满足L约束,降低模型对输入扰动的敏感性,增强模型的泛化性能。
6. 幂迭代求谱范数:求


特征根求法:





等价于



即初始化u,v之后,迭代若干次得到u,v,然后带入计算得到

7. 谱正则化(Spectral Norm Regularization):
F范数是一个更粗糙的条件,更准确的范数应该为谱范数。则神经网络的loss为

PyTorch计算谱范数代码(待续)
8. 梯度惩罚:只在局部空间生效???



9. 谱归一化(Spectral Normalization):将

梯度惩罚的每个epoch的运行时间比谱归一化要长。
Reference:
https://spaces.ac.cn/archives/6051
《Spectral Norm Regularization for Improving the Generalizability of Deep Learning》
《Spectral Normalization for Generative Adversarial Networks》ICLR2018