Transformer論文翻譯

基本是機器翻譯,進行了簡單的人工修正,湊活看吧 原論文: 《Attention Is All You Need》 源代碼:https://github.com/tensorflow/tensor2tensor 關於注意力機制的更多信息,參考 http://www.javashuo.com/article/p-hyifexbq-qh.html http://nlp.seas.harvard.edu/
相關文章
相關標籤/搜索