李宏毅nlp學習筆記14:Multi-lingual BERT

1.Multi-lingual BERT:把多種語言丟到bert模型中進行訓練。 2.驚奇的效果:可以做到跨語言學習。 用英文的QA語料進行訓練,然後可以對模型做中文的QA。 而且效果要好於直接用中文訓練的其他模型。 翻譯語料進行訓練的結果有時候還比不上直接Multi-lingual BERT的結果: 其他的, 會做英文的詞性標記,就也會做中文的了。 會做英文的ner識別,就也會做中文的了。 3.
相關文章
相關標籤/搜索