Batch Normalization和Layer Normalization

ぃ、小莉子 提交于 2019-11-26 17:27:19

Batch Normalization:对一个mini batch的样本,经过一个nueron(或filter)后生成的feature map中的所有point进行归一化。(纵向归一化)

Layer Normalization:对单个样本,经过一个卷积层的所有neuron(或filter)后生成的feature map中的所有point进行归一化。(横向归一化)

标签
易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!