在線學習算法FTRL

優化算法中的LBFGS解法以及GD等解法,是對一批樣本進行一次求解,得到一個全局最優解。      實際的互聯網廣告應用需要的是快速地進行model的更新。爲了保證快速的更新,訓練樣本是一條一條地過來的,每來一個樣本,model的參數對這個樣本進行一次迭代,從而保證了model的及時更新,這種方法叫做OGD(Online gradient descent)。 當然這會有誤差,所以爲了避免這種誤差,
相關文章
相關標籤/搜索