一、L1範式和L2方式的區別面試
(1)L1範式是對應參數向量絕對值之和算法
(2)L1範式具備稀疏性機器學習
(3)L1範式能夠用來做爲特徵選擇,而且可解釋性較強(這裏的原理是在實際Loss function中都須要求最小值,根據L1的定義可知L1最小值只有0,故能夠經過這種方式來進行特徵選擇)函數
(4)L2範式是對應參數向量的平方和,再求平方根性能
(5)L2範式是爲了防止機器學習的過擬合,提高模型的泛化能力學習
二、優化算法及其優缺點優化
舒適提示:在回答面試官的問題的時候,每每將問題往大的方面去回答,這樣不會陷於小的技術上死磕,最後很容易把本身嗑死了。spa
(1)隨即梯度降低blog
優勢:能夠必定程度上解決局部最優解的問題io
缺點:收斂速度較慢
(2)批量梯度降低
優勢:容易陷入局部最優解
缺點:收斂速度較快
(3)mini_batch梯度降低
綜合隨即梯度降低和批量梯度降低的優缺點,提取的一箇中和的方法。
(4)牛頓法
牛頓法在迭代的時候,須要計算Hessian矩陣,當維度較高的時候,計算Hessian矩陣比較困難。
(5)擬牛頓法
擬牛頓法是爲了改進牛頓法在迭代過程當中,計算Hessian矩陣而提取的算法,它採用的方式是經過逼近Hessian的方式來進行求解。
(6)共軛梯度
(7)啓發式的優化算法
啓發式的優化算法有遺傳算法,粒子羣算法等。這類算法的主要思想就是設定一個目標函數,每次迭代根據相應的策略優化種羣。直到知足什麼樣的條件爲止。
三、RF與GBDT之間的區別
(1)相同點
(2)不一樣點
(3)RF:
優勢:
缺點:
(4)GBDT
優勢:
缺點:
四、SVM的模型的推導
五、SVM與樹模型之間的區別
(1)SVM
(2)樹模型
六、梯度消失和梯度膨脹
(1)梯度消失:
(2)梯度膨脹
七、LR的原理和Loss的推導