NLP基礎之——Contextual Word Representations and Pretraining

一、ELMO ELMO的基本思想是利用雙向的LSTM結構,對於某個語言模型的目標,在大量文本上進行預訓練,從LSTM layer中得到contextual embedding,其中較低層的LSTM代表了比較簡單的語法信息,而上層的LSTM捕捉的是依賴於上下文的語義信息。ELMO的全稱就是Embeddings from Language Models。對於下游的任務,再將這些不同層的向量線性組合,再
相關文章
相關標籤/搜索