【Paper】GloVe:如何從大規模語料中快速訓練詞向量

1. Introduction 今天學的論文是斯坦福大學 2014 年的工作《GloVe: Global Vectors for Word Representation》,在當時有兩種主流的 Word Embedding 方式,一種是 LSA,創建詞頻矩陣,利用 SVD 分解得到詞向量;另一種是 13 年提出的 Word2Vec,基於滑動窗口的淺層神經網絡。前者的優點是利用了全局的統計信息(共現矩
相關文章
相關標籤/搜索