VGG梳理
创新点(小卷积核、小池化核、层数更深、全连接变卷积) 对AlexNet改进,在第一个卷积层中使用了更小的卷积核和卷积stride 多尺度(训练和测试时,采用图片的不同尺度(当然是按各向同性缩放的最小边划定标准)) 层数深 测试阶段,将三个全连接变为三个卷积层,以适应任何大小的图片输入(最后那里是score map求平均) 不同层次的网络结构 从上图可以看出,依旧延续了AlexNet的5-3结构(5个卷积快,3个全连接,其中最后一个是输出) 实验结果 LRN无用 加深网络,可以提高精度 多尺度输入(训练)可以提高精度 多尺度测试也可以提高精度(多尺度训练、多尺度测试合称尺度抖动) 融合dense evaluation和multi-scale evaluation效果好 dense evaluation表示不进行224×224的裁剪,直接放入网络,全连接改为卷积 感受野的大小 卷积神经网络特征图上的像素点映射回原图上的大小 两个问题 Q1:为什么使用3×3的卷积核 (1)减小参数量,若生成相同大小的特征图,三个3×3的卷积相当于一个7×7的卷积: 3×(C×3×3×C)=27C 2 C×7×7×C = 49C 2 (2)激活层增加,增加非线性 Q2:1×1卷积核的作用 (1)一种为决策增加非线性因素的方式 (2)调整网络的维度扩维或者缩小维度 来源: https://www