拋棄注意力,比EfficientNet快3.5倍,類Transformer新模型跨界視覺任務實現新SOTA

本文經機器之心(almosthuman2014)授權轉載,禁止二次轉載.  選自OpenReview 機器之心編譯 機器之心編輯部 Transformer 用在圖像識別上會存在計算效率過低的挑戰,最近一篇向 ICLR 2021 大會提交的論文似乎很好地解決了這一問題,其研究的 PyTorch 代碼也已在 GitHub 上開源。 在自然語言處理領域(NLP)成爲重要力量的 Transformer 技
相關文章
相關標籤/搜索