「非自迴歸」也不差:基於MLM的閱讀理解問答

作者丨蘇劍林 單位丨追一科技 研究方向丨NLP,神經網絡 個人主頁丨kexue.fm 前段時間寫了萬能的Seq2Seq:基於Seq2Seq的閱讀理解問答,探索了以最通用的 Seq2Seq 的方式來做閱讀理解式問答,並且取得相當不錯的成績(單模型 0.77,超過參加比賽時精調的最佳模型)。這篇文章我們繼續做這個任務,不過換一個思路,直接基於 MLM 模型來做,最終成績基本一致,但能提高預測速度。 兩
相關文章
相關標籤/搜索