r-net:machine reading comprehension with self-matching networks

文章目錄 1.模型概述 2.passage和question編碼層 3.Gated Attention-based RNN 4.Self-Matching Attention 5.output layer 6.源碼和參數 參考連接 我以爲這篇文章的文筆真的有點不敢恭維,首先向量矩陣的維度不說清楚還能腦補,可是這邊先後不一樣層之間用同樣的變量名是什麼意思啊(這麼說出來會不會被MSRA鄙視,之後的簡歷
相關文章
相關標籤/搜索