Batch Norm、Layer Norm、Instance Norm、Group Norm、Switchable Norm总结
1.综述 1.1 论文链接 1、Batch Normalization https://arxiv.org/pdf/1502.03167.pdf 2、Layer Normalizaiton https://arxiv.org/pdf/1607.06450v1.pdf 3、Instance Normalization https://arxiv.org/pdf/1607.08022.pdf https://github.com/DmitryUlyanov/texture_nets 4、Group Normalization https://arxiv.org/pdf/1803.08494.pdf 5、Switchable Normalization https://arxiv.org/pdf/1806.10779.pdf https://github.com/switchablenorms/Switchable-Normalization 在入门深度学习时就深度学习中的一些概念做了一些介绍,但随着学习的不断深入,一些网络优化的技巧越来越多,才发现之前的理解的不够深入。在这里有对 BN的理解 ,对出现的几种归一化进行一些个人理解的介绍,首先看一个直观图 归一化层,目前主要有这几个方法,Batch Normalization(2015年)、Layer Normalization