FLAT:中文NER屠榜之作!

文 | JayLou婁傑 編 | YY 近年來,引入詞彙信息逐漸成爲提升中文NER指標的重要手段。ACL2020中一篇來自復旦大學邱錫鵬老師團隊的 FLAT: Chinese NER Using Flat-Lattice Transformer 刷新了中文NER任務的新SOTA。 如上圖所示,在MSRA-NER任務中,FLAT+BERT登頂榜首;而單獨的FLAT(1層TransFormer)也超越
相關文章
相關標籤/搜索