FLAT:中文NER屠榜之作!復旦大學邱錫鵬團隊出品-20

道翰天瓊認知智能機器人平臺API接口大腦爲您揭祕。近年來,引入詞彙信息逐漸成爲提升中文NER指標的重要手段。ACL2020中一篇來自復旦大學邱錫鵬老師團隊的 FLAT: Chinese NER Using Flat-Lattice Transformer 刷新了中文NER任務的新SOTA。   如上圖所示,在MSRA-NER任務中,FLAT+BERT登頂榜首;而單獨的FLAT(1層TransFor
相關文章
相關標籤/搜索