利用ReLU輸出稀疏性加速卷積

一篇講利用ReLU輸出的稀疏性來加速卷積計算的論文,其目的和另一篇文章《More is less》 有點類似。 實驗效果似乎還不錯,但似乎並沒有很大的創新。 文章鏈接: 《Speeding up Convolutional Neural Networks By Exploiting the Sparsity of Rectifier Units》 Motivation 下圖的結論是:使用ReLU作
相關文章
相關標籤/搜索