因爲百度是秋招的時候面的,如今不少問題都記不住了,這裏只寫下我還記得的題目吧(當時太懶了,不想寫了。。。):面試
1.文本分類比賽用的什麼模型?爲何?oop
答:LR、SVM、XGBoost。。。優化
問:最終選用了哪一個?指針
答:blabla。。。線性核的SVM排序
問:爲何選線性核SVM?原理
答:效果最好,特徵數目遠大於樣本數目時,選線性核的SVM比較好。百度
問:爲何?鏈表
答:LR受所有樣本的影響,SVM只受支持向量的影響。(感受有些牽強)數據
2.文本分類的數據是怎樣的?類別標籤是怎樣的?gdb
答:blabla。。。
3.LR多分類是怎麼實現的?
答:softmax層
問:爲何用softmax層,而不用onevsall等多分類策略
。。。不記得了
4.SGD如何改進優化?
答:這裏我理解錯了,實際上他是想問mini-batch梯度降低。
5.推導帶L1正則項的LR,以及如何進行優化的?
答。。。
6.gdbt和xgboost的區別?
答:(經典面試題)。。。
7.樹模型、xgboost、gbdt哪一個須要作特徵歸一化?
。。。
8.面對一個任務,如何選擇模型?
我感受這裏能夠理解爲模型的使用場景。。。
9.LR和SVM的區別?
答:(經典面試題)。。。
10.過擬合的解決手段?
。。。
11.CNN、RNN、LSTM的原理?
。。。
12.書寫下鏈表逆序?
。。。。
13.書寫歸併排序,並優化到空間複雜度爲O(1)
。。。雙指針
14.幾種梯度降低法的區別?
。。。
15.Hadoop相關