WRPN: Wide Reduced-Precision Networks

這篇文章的主要提升點在激活層的量化。從上圖可以看出,當使用mini-batch時,隨着batch數的提升,激活層所佔據的內存也顯著提升。 不同於drrefa-net的量化方式: wrpn採取了更簡單的量化方式: 文章用大量篇幅描述了作者所做的實驗,但是對於wrpn的原理只是寥寥幾句。所以我並不確定我的理解是否正確,它的意思大概是:將特徵圖拓寬,分爲幾個,然後再進行量化。雖然前一個操作會增加消耗,但
相關文章
相關標籤/搜索