PACT: PARAMETERIZED CLIPPING ACTIVATION FOR QUANTIZED NEURAL NETWORKS

本文的主要貢獻有三點: 1、提出了pact方法,它給激活函數設定了一個可學習的α截斷參數。 2、在2bit以下,它的效果比所有當時的模型都好;4bit的精度接近單精度的表現。 3、它可以提供一種平衡模型精度和複雜度的方法。 量化權重相當於是將權重的損失函數的假設空間離散化,因此可以通過訓練來彌補由量化導致的誤差,但傳統的激活函數卻並沒有任何可訓練參數,因此不能這樣做。 ReLU已經成爲現在最爲流行
相關文章
相關標籤/搜索