Multi-Granularity Hierarchical Attention Fusion Networks for RCQA讀書筆記

發表於ACL2018 阿里在SQuAD數據集首次在EM指標上超過人類平均水平的工作 模型:     glove+ELMo embedding     過Bi-LSTM後拼接ELMo embedding     cross-attention相互表徵     原表徵和cross表徵fuse     門機制控制原表徵和fuse表徵融合結果     對paragraph加入人工特徵後果BiLSTM;雙線
相關文章
相關標籤/搜索