注意力機制(一)——在機器翻譯中的應用

最近在看注意力機制,想要搞明白三個問題:①注意力機制的運行機制 ②解決了什麼問題 ③有什麼特點。因爲它最先被引入機器翻譯,所以先從機器翻譯看起。主要是資料的整合,我自己的思考是藍色的部分 目錄 1、自然語言處理的不定長問題——seq2seq的引入 單層網絡結構(1v1) 經典的RNN結構(N vs N) N VS 1 1 VS N N VS M 2、seq2seq模型——編碼器和解碼器 圖解主要思
相關文章
相關標籤/搜索