(http://demonstrate.ycool.com/post.3137870.html)html
看了幾天 paper 和書,發現本身果真就是 zt好多東西就是不懂,那些人作的真快,我才創建起一種大體的灌水想法和模式,而後發現你們已經灌了很久了,你們手上都有長期灌水得到的工具,我卻沒有。
如今想挖個小坑,反而被人罵了 ~~><~~
下面是大體的灌水經歷
naive Bayesian 的 discriminative pair 是 logisticregression,能用 kernel,出現了 KLR,換個training 的方式(MLE -> maximum margin)來了SVM,又由於 SVM 用了 regularizer,因此出來PKLR。又由於 SVM 稀疏,搞了個 IVM、RVM。監督的不夠,咱還能加上半監督的,各類 regularizer同樣上一個,SVM 要我 logistic regression 也要。KLR 是 frequentist 的,因而弄成 Bayesian,沒發精確算,每一個 approximation 算法來個版本,什麼 Laplace approximation、variational method、variational bound、EP。這還不夠,由於不是nonparametric,因而上 GP,而後每一個近似方法再來一個。好吧,logistic regression 到了 NLP換了件衣服叫 CME,說來講去這 feature 好就想爲啥那 generative model 很差用,能夠認爲加了狀態之間 transition 的 naive Bayesian 就變成了HMM,但是 HMM 就是不能用 feature,因而出來個 MEMM。可是還以爲 label bias 不爽,乾脆不是讓 state 競爭,鬆掉這塊的約束,換成 MRF,因而出現了鏈式 CRF。但是這不仍是 logistic regression 麼,那麼再上 maximum margin、regularizer 就成了 maximum margin Markov
network;用個 Bayes 先驗,出個 Bayes 版本,意猶未盡的你們還用上了 GP。HMM 裏面有個 semi-Markov版本,因而很天然的 CRF 也能夠來,估計 M3N
也行... 再來個 Bayes 的吧,還能夠上 GP...算法
另一排人在搞 Dirichlet process,DP 一出原來有限的都能無限。作法也是先把 frequentist 變 Bayes變了把參數空間換成 DP 先驗。而後每一個近似算法
來一個,另外 DP 裏面採樣很重要,還有多種不一樣的interpretation,好比用 CRP 的,用 SBP 的,更有甚者,瞧瞧 Jordan 的那個 DP 的 slides,那不就是
說 nnd 爺以爲 DP 不夠爽快,還有 *** process 更合適呢...什麼能夠換就換什麼,換來換去發現手上仍是naive Bayesian 和 logistic regression,上面套了不少的wrapper...app