模型壓縮95%,MIT韓鬆等人提出新型Lite Transformer

2020-06-08 16:31:31 選自arXiv 作者:Zhanghao Wu等 機器之心編譯 參與:小舟、魔王 Transformer 的高性能依賴於極高的算力,這讓移動端 NLP 嚴重受限。在不久之前的 ICLR 2020 論文中,MIT 與上海交大的研究人員提出了一種高效的移動端 NLP 架構 Lite Transformer,向在邊緣設備上部署移動級 NLP 應用邁進了一大步。 雖然
相關文章
相關標籤/搜索