模型壓縮95%,MIT韓鬆等人提出新型Lite Transformer

2020-06-08 16:31:31git 選自arXivgithub 做者:Zhanghao Wu等算法 機器之心編譯網絡 參與:小舟、魔王架構 Transformer 的高性能依賴於極高的算力,這讓移動端 NLP 嚴重受限。在不久以前的 ICLR 2020 論文中,MIT 與上海交大的研究人員提出了一種高效的移動端 NLP 架構 Lite Transformer,向在邊緣設備上部署移動級 N
相關文章
相關標籤/搜索