LRN和feature map
LRN层的作用 局部归一化:被激活的神经元抑制相邻神经元,使用LRN增加了泛化能力(使输出中响应比较大的值变得相对更大,并抑制其他响应较小的神经元)。 tensorflow中的lrn函数 函数原型如下: def lrn(input, depth_radius=None, bias=None, alpha=None, beta=None, name=None): 计算公式如下: i:代表通道,你要计算像素值所在的通道,从0到N-1 j:平方累加索引,代表从j~i的像素值平方求和 x,y:像素的位置,就是像素所在通道的高和宽 a:代表feature map里面的对应像素的具体值 N:通道的个数,也就是本层feature map的个数 k:超参数,由原型中的bias指定 α:超参数,由原型中的alpha指定 n/2:超参数,由原型中的deepth_radius指定,表示分母的计算范围 β:超参数,由原型中的belta指定 公式详解: 这个公式中的a表示卷积层(包括卷积操作和池化操作)后的输出结果,这个输出结果的结构是一个四维数组[batch,height,width,channel],这里可以简单解释一下,batch就是批次数(每一批为一张图片),height就是图片高度,width就是图片宽度,channel就是通道数可以理解成一批图片中的某一个图片经过卷积操作后输出的神经元个数