CNN
文章目录 1.全连接神经网络的局限性: 2 2.1 CNN结构: 2.2 卷积 2.3 pooling池化 2.4 卷积函数 2.5池化函数 1.全连接神经网络的局限性: 当图片分辨率进一步增加时,当隐层数量增加时,参数会过多,参数增多导致计算速度缓慢,过拟合问题,需要合理的结构来有效减少参数个数.CNN可看做神经认知机的推广形式,CNN是一个多层的神经网络,每层由多个二维平面组成,其中每个平面由多个独立神经元组成. 2 2.1 CNN结构: 输入层:将每个像素代表一个特征点输入到网络中 卷积层:卷积运算的主要目的是使原信号特征增强,并降低噪音 降采样层:通过减少矩阵的长和宽,降低网络训练参数及模型的过拟合程度 全连接层:对生成的特征进行加权 softmax层:获得当前样例属于不同类别的概率 2.2 卷积 权值矩阵称为卷积核 卷积核在2维输入数据上滑动,对当前输入部分的元素进行矩阵乘法,然后将结果汇为单个输出像素值,重复直到 遍历整个图像,这个过程称为卷积 卷积操作之后的图像称为特征图feature map 局部连接:每个输入特性不用查看每个输入特征,只需查看部分输入特征 权值共享:卷积核在图像上滑动过程保持不变 多通道卷积:每个通道使用一个卷积核进行卷积操作,然后将这些特征图相同位置上的值相加,生成一个特征图 [m,m]->[n,n] ->[n,n] ->[n,n] [m,m