Andrew Ng機器學習公開課筆記 -- Online Learning

網易公開課,第11課
notes,http://cs229.stanford.edu/notes/cs229-notes6.pdfhtml

 

和以前看到的batch learning算法不同,batch learning必定是先用訓練集進行訓練,而後才進行預測es6

可是online learning,沒必要要必定有訓練的過程,能夠一邊預測的同時一邊訓練算法

這個其實很現實,系統上線前也許很難收集到數據,而且數據也許也是在不斷變化的函數

下面就用perceptron algorithm做爲例子看看如何實現online learning的,學習

感知器(perception)應該能夠說是最爲簡單的線性分類算法,優化

image

image

能夠看到,它能夠說是簡化版的logistics迴歸,由於logistics只須要把階躍函數換成sigmoid函數便可
同時它也是SVM的理論基礎htm

如何實現online learning,其實也很簡單,以前咱們學過一個最優化算法,隨機梯度降低,就很適合這個場景
由於這個算法,只須要一個樣本點就能夠進行優化blog

image

而這裏寫成這個形式,ci

image

看着更簡單,實際上是同樣的get

別看這個那麼簡單,可是能夠證實即使是對於無限維向量x,這個算法的偏差總數(即在數據序列中預測錯多少個)也是有上屆的,而且和序列中的樣本個數或x維數都沒有explicit dependence。

定理以下,更詳細的解釋和證實,參考在線學習(Online Learning)

image

相關文章
相關標籤/搜索