论文阅读——LSQ+: Improving low-bit quantization through learnable offsets and better initialization
LSQ+: Improving low-bit quantization through learnable offsets and better initialization from Qualcomn AI Research | Seoul National University CVPR2020 LSQ+:通过学习偏移和更好的初始化改进LSQ Abstract 新的激活函数,如Swish,Mish不像ReLU只有非负值,而是有正有负,而传统的无符号量化策略会将所有负的激活值量化为0,从而导致性能的显著下降;如果为了对负激活值也进行量化就需要增加额外的符号位,在低比特量化(2、3、4bit)中代价太大了。
为了解决这一问题,本文基于LSQ提出了改进版的LSQ+,通过引入一种通用的非对称的量化策略,通过训练学习缩放尺度scale和偏移参数offset,从而解决负激活值的量化问题;另一方面基于梯度学习的量化方案训练过程通常不稳定,因此需要调整大量的超参数才能达到较好的性能,LSQ+通过对待量化的参数使用MSE初始化策略有效缓解了这一问题,使得多次训练结果的差异波动明显降低。
在EfficientNet和MixNet上使用LSQ+的量化策略的表现要优于Swish激活的LSQ低比特量化,比如EfficientNet的W4A4量化精度提升1.8%