【論文筆記】QANET:Combining Local Convolution With Global Self-attention for Reading Comprehension

目錄   1. 簡要介紹 2. 模型 3. data augmentation by backtranslation 4. 實驗 ​​​​​​​ 1. 簡要介紹 模型創新點: (一)移除了RNN,核心就是卷積 + self-attention。這樣使得訓練更快,相應地模型能使用更多的訓練數據。Convolution capture the local structure of context(lo
相關文章
相關標籤/搜索