【BI-DIRECTIONAL ATTENTION FLOW FOR MACHINE COMPREHENSION】論文筆記

前三層分別是char embedding、word embedding、context embedding,不再細說。 主要想記錄一下對Attention Flow Layer的一些思考。 首先, 引入attention這一層的目的是爲了將「問題的特徵」融入到給定的context的embedding中去。 也就是說,在給出合理的答案之前,我們必須按照question的提示,重點關注context中
相關文章
相關標籤/搜索