Transformer-XL語言模型:超長上下文依賴

論文鏈接:https://arxiv.org/pdf/1901.02860.pdf 代碼鏈接:https://github.com/kimiyoung/transformer-xl 參考來源:https://mp.weixin.qq.com/s/C1hXU3HMSXSY5Ru9r1CZAA 導讀 今天學習的是谷歌大腦的同學和 CMU 的同學於 2019 年聯合出品的論文《Transformer-X
相關文章
相關標籤/搜索