斯坦福大學2019自然語言處理CS224n,Lecture6:Language Models and Recurrent Neural Networks

內容大綱: 語言模型: N-gram語言模型: n-gram指的是n個連續的詞。通過統計不同n-gram的詞頻信息來預測下一個詞是什麼。 假設前提:長文本的第X(t+1)這個詞出現概率等於前面的n-1個詞預測下一個詞出現的概率,也就是說: 怎麼求上面的概率呢? 在一個很大的語料文本中計算他們出現的次數做比例。 舉個例子: 對於4-gram,我們忽略掉除了三個文本之前的詞彙,然後分別計算連續三個詞彙
相關文章
相關標籤/搜索