Convolution with even-sized kernels and symmetric padding论文解读笔记
文章目录 导读 摘要 引言 相关工作 对称填充 实验 讨论 总结 导读 我们都习惯使用3*3的卷积核,这篇文章介绍了 偶数卷积核 其实表现更强 。 首先附上文章地址: Convolution with even-sized kernels and symmetric padding 【PDF】 摘要 紧凑型卷积神经网络主要通过深度卷积,扩展的通道和复杂的拓扑来提高效率,这反过来又加剧了训练过程。 此外,在这些模型中, 3×3内核占主导地位 ,而偶数大小的内核(2×2、4×4)很少被采用。 在这项工作中,我们通过信息侵蚀假设来量化偶数大小的核卷积中发生的偏移问题,并通过在特征图的四个侧面(C2sp,C4sp)提出对称填充来消除它。 对称填充以很少的计算成本释放了偶数大小的内核的泛化能力,使其在图像分类和生成任务方面优于3×3内核。此外,C2sp获得了与新兴紧凑型模型相当的精度,而训练期间的内存和时间消耗却少得多。 对称填充和偶数卷积可以很好地实现到现有框架中,为体系结构设计提供有效的元素,尤其是在强调训练工作的在线和持续学习场合。 引言 深度卷积神经网络(CNN)在许多计算机视觉任务中都取得了重大成功,例如图像分类[37],语义分割[43],图像生成[8]和游戏[29]。 除了特定领域的应用程序之外,还设计了各种体系结构来提高CNN的性能[3,12,15]