性能媲美BERT,但參數量僅爲1/300,這是谷歌最新的NLP模型

選自Google AI Blog 作者:Prabhu Kaliamoorthi 轉自機器之心 在最新的博客文章中,谷歌公佈了一個新的 NLP 模型,在文本分類任務上可以達到 BERT 級別的性能,但參數量僅爲 BERT 的 1/300。 在過去的十年中,深度神經網絡從根本上變革了自然語言處理(NLP)領域的發展,但移動端有限的內存和處理能力對模型提出了更高的要求。人們希望它們可以變得更小,但性能不
相關文章
相關標籤/搜索