2019秋招——百度機器學習面經

因爲百度是秋招的時候面的,如今不少問題都記不住了,這裏只寫下我還記得的題目吧(當時太懶了,不想寫了。。。):面試

1.文本分類比賽用的什麼模型?爲何?oop

答:LR、SVM、XGBoost。。。優化

問:最終選用了哪一個?指針

答:blabla。。。線性核的SVM排序

問:爲何選線性核SVM?原理

答:效果最好,特徵數目遠大於樣本數目時,選線性核的SVM比較好。百度

問:爲何?鏈表

答:LR受所有樣本的影響,SVM只受支持向量的影響。(感受有些牽強)數據

2.文本分類的數據是怎樣的?類別標籤是怎樣的?gdb

答:blabla。。。

3.LR多分類是怎麼實現的?

答:softmax層

問:爲何用softmax層,而不用onevsall等多分類策略

。。。不記得了

4.SGD如何改進優化?

答:這裏我理解錯了,實際上他是想問mini-batch梯度降低。

5.推導帶L1正則項的LR,以及如何進行優化的?

答。。。

6.gdbt和xgboost的區別?

答:(經典面試題)。。。

7.樹模型、xgboost、gbdt哪一個須要作特徵歸一化?

。。。

8.面對一個任務,如何選擇模型?

我感受這裏能夠理解爲模型的使用場景。。。

9.LR和SVM的區別?

答:(經典面試題)。。。

10.過擬合的解決手段?

。。。

11.CNN、RNN、LSTM的原理?

。。。

12.書寫下鏈表逆序?

。。。。

13.書寫歸併排序,並優化到空間複雜度爲O(1)

。。。雙指針

14.幾種梯度降低法的區別?

。。。

15.Hadoop相關

相關文章
相關標籤/搜索