【論文閱讀筆記】Cross-lingual Language Model Pretraining

本文是FaceBook AI Team在2019年一月發佈的文章。        近一年來,NLP領域發展勢頭強勁,從ELMO到LSTM再到去年最牛叉的Google Bert,在今年年初,Facebook又推出了XLM模型,在跨語言預訓練領域表現搶眼。實驗結果顯示XML在XNLI任務上比原來的state-of-the-art直接高了4.9個百分點;在無監督機器翻譯WMT’16 German-Eng
相關文章
相關標籤/搜索