解讀 | 從seq2seq到attention的方方面面

    點擊上方「Jerry的算法和NLP」,選擇「星標」公衆號                      重磅乾貨,第一時間送達     這篇文章的主要內容是對谷歌提出的transformer 進行論文解讀,主要是針對Google在2017年《Attention is all you need》 提出的transformer模型進行一個研究,另外我還看了這篇文章《Neural Machine T
相關文章
相關標籤/搜索