r-net:machine reading comprehension with self-matching networks

文章目錄 1.模型概述 2.passage和question編碼層 3.Gated Attention-based RNN 4.Self-Matching Attention 5.output layer 6.源碼和參數 參考鏈接 我覺得這篇文章的文筆真的有點不敢恭維,首先向量矩陣的維度不說清楚還能腦補,但是這邊前後不同層之間用一樣的變量名是什麼意思啊(這麼說出來會不會被MSRA鄙視,以後的簡歷都
相關文章
相關標籤/搜索