「非自迴歸」也不差:基於MLM的閱讀理解問答

做者丨蘇劍林git 單位丨追一科技github 研究方向丨NLP,神經網絡網絡 我的主頁丨kexue.fm人工智能 前段時間寫了萬能的Seq2Seq:基於Seq2Seq的閱讀理解問答,探索了以最通用的 Seq2Seq 的方式來作閱讀理解式問答,而且取得至關不錯的成績(單模型 0.77,超過參加比賽時精調的最佳模型)。這篇文章咱們繼續作這個任務,不過換一個思路,直接基於 MLM 模型來作,最終成績基
相關文章
相關標籤/搜索