LSTM+CNN+ATTENTION(QA)

一、 四個模型 注意力: 實驗 數據集:InsuranceQA 二、 三個變化: 1.LSTM只用輸入們 2.提出對比五個比較函數(圖右邊5個) 3.最後一層加Cnn 實驗 1 https://github.com/shuohangwang/SeqMatchSeq 三、 變化: 嵌入層用預訓練語言模型代替(ELMo) +ATTENTION +聚類 +遷移學習 實驗
相關文章
相關標籤/搜索