QANet: Combining Local Convolution With Global Self-Attention For Reading Comprehension

文章目錄 1.概述 2.模型結構 2.1.Input embedding layer 2.2 Embedding Encoder Layer 2.3.Context-Query Attention Layer 2.4.Model Encoder Layer 2.5 Output layer 3.數據增強 4.源碼及訓練 參考文獻 博主標記版paper下載地址:zsweet github 關於pap
相關文章
相關標籤/搜索