NLP 各類word-embedding

Word-Embedding One-hot Encoding 將N個單詞轉爲長度爲N的向量,如果是該單詞,該位就置爲1 優點:稀疏,各維度都是獨立的,也就是各個單詞都是獨立的 Bag-of-Words(BoW) Model【詞袋模型】 把一個句子/文檔中的單詞數進行統計 每個文檔都轉換爲<word,count>map對 文檔相似度: cosine euclidean distance dot-p
相關文章
相關標籤/搜索