下面转载的文章实在是太精彩了,对一范数、核范数的优化讲的很清晰,到此我更加明白了优化的原理。
参考:https://www.jeddd.com/article/use-python-to-solve-lasso-by-pgd-admm-and-subgd.html
以及交替优化的方法中,固定一个参数,求最小值时另一个参数变化,也就是相当于减少了一个约束。因为当一个参数固定时,改参数是不影响函数的最值的,所以优化时可以忽略不计。我也会在下面讲解。
转载的文章链接:https://www.cnblogs.com/quarryman/p/robust_pca.html
有兴趣的同学可以去看原文
主要注意点:
1. 核范数优化时,采用了如下的形式,进行拓展
来源:https://blog.csdn.net/qq_26004387/article/details/100119654