萬能的Seq2Seq:基於Seq2Seq的閱讀理解問答

作者丨蘇劍林 單位丨追一科技 研究方向丨NLP,神經網絡 個人主頁丨kexue.fm 今天給 bert4keras [1] 新增加了一個例子:閱讀理解式問答(task_reading_comprehension.py [2]),語料跟之前一樣,都是用 WebQA 和 SogouQA [3],最終的得分在 0.75 左右(單模型,沒精調)。 方法簡述 由於這次主要目的是給 bert4keras 增加
相關文章
相關標籤/搜索