论文笔记系列--MnasNet:Platform-Aware Neural Architecture Search for Mobile
本文介绍针对一篇移动端自动设计网络的文章《MnasNet:Platform-Aware Neural Architecture Search for Mobile》,由Google提出,很多后续工作都是基于这个工作改进的,因此很有必要学习了解。 Related work MnasNet的目的很简单就是设计出表现又好,效率又高的网络。在介绍之前简单回顾一下现有的一些提高网络效率的方法: quantization :就是把模型的权重用更低精度表示,例如之前使用float32来存储权重,那么我们可以试着用8位来存,更极致的思路是0,1来存,这就是Binary Network,也有一些工作研究这个,本文不做细究。 pruning :就是把模型中不重要的参数删掉。常用的一种剪枝方法是对通道数进行剪枝,因为这种方法实现起来方便,得到的模型结构也是规则的,计算起来也方便。 人工设计模块 ShuffleNet 上图(a)就是加入Depthwise的ResNet bottleneck结构,而(b)和(c)是加入Group convolution和Channel Shuffle的ShuffleNet的结构。 MobileNet :引入Depthwise Separable Convolution (DWConv) MobileNetv2 :在DWConv基础上引入inverted residuals