[論文閱讀筆記] Massive Exploration of Neural Machine Translation Architectures

最近想要看看Attention的機制,然後被網上博客引到這個論文,想要了解一下NMT(Neural Machine Translation)的架構。這篇paper沒有發表在會議上,出自Google Brain,並公開了seq2seq的NMT框架代碼。個人覺得文中的結論不太可信,但是對於NMT的介紹還是足夠清晰。這裏記錄一些文中有意思的點,以及一些筆者自己的思考,歡迎指教。 NMT框架 詳見文中Se
相關文章
相關標籤/搜索