[nlp] ELMo模型(下)

繼Transformer模型之後,我們再來介紹ELMo模型。 ELMo模型 看到前面的,看不到後面的 看到後面的,看不到前面的 Deep contextualized word representations (深層上下文的詞語表徵) 好的Embedding 捕捉語義和語法信息 能區分一詞多義 引入前向 和 後向 語言模型 進行訓練 詞向量的表示基於當前的句子上下文 高層LSTM:捕捉上下文的詞特
相關文章
相關標籤/搜索