CS224n筆記:contextual word representation

之前的Word Representation方法,Word2Vec, GloVe, fastText等對每個單詞僅有一種表示,而通常單詞的含義依賴其上下文會有所不同,而且每個單詞不僅有一方面特徵,而應有各方面特徵如語義特徵,語法特徵等,這一講集中討論contextual word representation,主要比較了ELMO,GPT與BERT模型。 Elmo L層forward LSTM每層會
相關文章
相關標籤/搜索