LR模型相關知識點

LR模型相關知識點web LR歸一化問題,什麼狀況能夠不歸一化,什麼狀況必須歸一化 爲何提到LR損失函數要能知道交叉熵,爲何是它,以它爲損失函數在優化的是一個什麼東西,知道它和KL散度以及相對熵的關係 提到LR的求解方法,好比SGD,知道SGD和BGD的區別,知道不一樣的GD方法有什麼區別和聯繫,二階優化算法知道什麼,對比offline learning和online learning的區別 提到
相關文章
相關標籤/搜索