自然語言處理( NLP )Subword Models

word2vec 一個人讀書時,如果遇到了生僻的詞,一般能根據上下文大概猜出生僻詞的意思,而 Word2Vec 正是很好的捕捉了這種人類的行爲。它的缺點是hicontext 很小,沒有使用全局的cooccur,所以實際上對cooccur的利用很少 GloVe 詞義相近的詞對貢獻次數多,詞義差得比較遠的詞對共現次數比較少,但其實他們的區分度並不明顯。相比於word2vec,因爲golve更容易並行化
相關文章
相關標籤/搜索