重磅!「天然語言處理(NLP)速遞」ACL--FaceBook(上下文自適應Attention跨度)&& 樹Transformer

來源:AINLPer微信公衆號 編輯: ShuYini 校稿: ShuYini 時間: 2019-8-24html 引言      本次的兩篇文章主要和Attention相關。第一篇是FaceBook AI團隊基於Transformer提出的一種自適應注意力跨度算法,該算法在Transform的時候可以顯著的擴展上下文的跨度。第二篇提出了一種新的Tree Transformer模型,該模型只需經過
相關文章
相關標籤/搜索