NLP論文研讀之路:A Neural Probabilistic Language Model

文章摘要:統計語言模型通過學習來得到語言中某個序列聯合概率分佈,但是由於一個序列可能看上去和訓練集中其他所有的語言序列都不相同,而且這種現象可能大量存在,這樣的話就會存在一個維度爆炸(curse of dimensionality)的問題,也就是語言模型過於稀疏。傳統的N-gram模型在語言模型中取得了一定的成功,但也無法避免稀疏性的問題。本文旨在提出一種稠密低維度的詞的表達方式,使得輸入每一個測
相關文章
相關標籤/搜索