神經概率語言模型

摘要 統計語言建模的目標是學習語言中單詞序列的聯合概率函數。由於 the curse of dimensionality,這本質上是困難的:模型測試的單詞序列可能與訓練集中的單詞序列不同。一種基於n-gram的傳統的但非常成功的方法是,通過連接訓練集中看到的非常短的重疊序列來獲得泛化。我們建議通過學習詞的分佈式表示來對抗維數災難,模型通過訓練語句對指數級語義相關的句子進行建模,該模型同時學習每個單
相關文章
相關標籤/搜索