2020.07.08_Multi-passage BERT: A Globally Normalized BERT Model for Open-domain Question Answering

論文簡述: BERT模型已成功地應用於開放域QA任務。然而,以往的工作是通過觀察與獨立訓練實例相同的問題對應的段落來訓練BERT,這可能會導致不同段落的答案得分存在不可比性。爲了解決這個問題,本文提出了一個多通道的BERT模型來對同一問題的所有段落的答案得分進行全局標準化,這種變化使得我們的QA模型能夠通過使用更多的段落找到更好的答案。此外,我們還發現,通過滑動窗口將文章拆分成100字的段落,可以
相關文章
相關標籤/搜索