性能媲美BERT,但參數量僅爲1/300,這是谷歌最新的NLP模型

點擊上方,選擇星標或置頂,不定期資源大放送! 閱讀大概需要15分鐘 Follow小博主,每天更新前沿乾貨 在最新的博客文章中,谷歌公佈了一個新的 NLP 模型,在文本分類任務上可以達到 BERT 級別的性能,但參數量僅爲 BERT 的 1/300。 在過去的十年中,深度神經網絡從根本上變革了自然語言處理(NLP)領域的發展,但移動端有限的內存和處理能力對模型提出了更高的要求。人們希望它們可以變得更
相關文章
相關標籤/搜索