結合Logistic迴歸構建最大熵馬爾科夫模型

這是應用於 NLP 的連續監督學習系列博文的第二篇。它可以看作是上一篇文章的續作(參見:深度 | 從樸素貝葉斯到維特比算法:詳解隱馬爾科夫模型),在上一篇博客中,作者試着解釋了隱馬爾科夫模型(HMM)和樸素貝葉斯(Naive Bayes)之間的關係。在這篇博客中,作者將嘗試解釋如何構建一個基於 Logistic 迴歸分類器的序列分類器,即,使用一種有區別性的方法。 判定模型 vs 生成模型 上一篇
相關文章
相關標籤/搜索