CS231n Lecture 15 | Efficient Methods and Hardware for Deep Learning

Lecture 15主要從算法和硬件兩個層面講解了模型壓縮和優化等問題,以實現深度學習模型的體積減少、參數數量縮減、計算量減少、計算加速等。 目前深度學習模型存在的幾大問題。 降低能耗是很重要的,那麼這些能量都消耗在哪了呢? 上圖可以看到存儲訪問的耗能比數學運算的耗能高兩到三個數量級,因此,我們需要將算法和硬件聯動設計來實現效能的提升。 我們將從以下四個方面來講解: 在此之前,我們先來將一些硬件的
相關文章
相關標籤/搜索