【論文筆記02】Text Understanding with the Attention Sum Reader Network

1 問題及數據集 1.1 問題 給定較長一段話的context和一個較短的問題,以及一些candidate answers,訓練出可以準確預測正確答案的模型,本模型主要針對命名實體和常用名詞這兩種詞性的單詞進行填空。 1.2數據集 (1)CNN&Daily Mail (2)CBT 2 已有方法 (1)Attentive and Impatient Readers (2)Attentive (3)C
相關文章
相關標籤/搜索