Text Understanding with the Attention Sum Reader Network

關鍵詞 Bi-GRU, Bi-LSTM, attention sum 來源 arXiv 2016.03.04 (published at ACL 2016) 問題 使用帶attention的深度模型解決完型填空問題 技術細節 模型比attentive reader簡單,分以下幾步: 使用雙向GRU/LSTM單元計算docment每個詞的拼接詞向量doc_endcoer 使用雙向GRU/LSTM單元
相關文章
相關標籤/搜索