韓鬆 EIE: Efficient Inference Engine on Compressed Deep Neural Network論文詳解

EIE爲韓鬆博士在ISCA 2016上的論文,實現了壓縮的稀疏神經網絡的硬件加速。 與其近似方法的ESE獲得了FPGA2017的最佳論文。 背景與介紹 最新的DNN模型都是運算密集型和存儲密集型,難以硬件部署。 提出了EIE (Efficient Inference Engine)的方法,將壓縮模型應用與硬件。 矩陣表示 這是一個稀疏矩陣相乘的過程,輸入向量a,乘以矩陣W,輸出矩陣爲b,然後經過了
相關文章
相關標籤/搜索