Learning to Quantize Deep Networks by Optimizing Quantization Intervals with Task Loss

本文提出了一種可學習的量化間隔(Quantization Interval Learning,QIL)方法。 它的思路類似TSQ,都是分兩步進行量化,但與TSQ不同,它在每一步裏都同時對權重和激活值進行處理。 第一步是一個Transformer:其思路與DoReFa-Net類似,將權重變換到[-1,1],將激活值變換到[0,1]。 其框架如下: 權重和激活值的變換公式分別爲: 這裏Cw和Cx分別爲
相關文章
相關標籤/搜索