【cs224n-12】Modeling contexts of use: Contextual Representations and Pretraining. ELMo and BERT.

    上一篇我們講解了詞嵌入的靜態表示和上下文動態表示的區別,即基於上下文動態表示的預訓練模型的發展情況,本文是對具體細節的一些細化描述。 1. Representations for a word     我們可以從我們常見的詞嵌入的靜態表示模型 Word2vec, GloVe, fastText獲得一個單詞的表示,並應有與下游任務。   Tips for unknown words with
相關文章
相關標籤/搜索