[nlp]Encoder-decoder模型&Attention機制

參考鏈接:https://zhuanlan.zhihu.com/p/47063917 回顧RNN, 要設置max_len , 選擇多少個值作爲輸入。 Encoder-Decoder結構 之前的Neural Machine Translation(一下簡稱NMT)模型中,通常的配置是encoder-decoder結構,即encoder讀取輸入的句子將其轉換爲定長的一個向量,然後decoder再將這個
相關文章
相關標籤/搜索