機器學習/深度學習 問題總結及解答

轉載鏈接

問題總結及資料連接

(1)機器學習部分

1 邏輯迴歸部分
常問,推導要會html

 

2 SVM部分
常問,推導要會,精簡版看下面連接,可是寫的不是很詳細,最好把cs229講義好好看看面試

推導: https://www.zhihu.com/question/21094489 @靠靠靠譜 的回答
 

3 集成學習
常問,推導要會算法

bagging方法:看周志華教授的西瓜書
 
boosting方法:看李航的藍書,特別的對於GBDT, 這篇文章寫的很清晰,推導相對簡單
這裏注意一下,GBDT有兩種,一種是殘差學習,一種是負梯度代替殘差的版本(因此有個G啊),爲啥用負梯度近似殘差也是常問的,其實這個說法就不對,殘差只是在loss用最小二乘時候的一個特例,對 求梯度恰好就是 ,換成其餘loss function就不對了,因此應該反過來講,殘差學習只是一個特例,負梯度纔是通用的
 
stacking方法:沒有特別好的講解,都看看吧, 這篇還行
 
決策樹:cart樹是最常問的,詳見李航藍書,從推導到剪枝都要會
 

4 softmax編程

這個相對簡單, 這篇足夠了
 

5 牛頓法和梯度降低網絡

推導以及優劣比較,相對簡單,直接看cs229講義
 

6 交叉驗證app

相對簡單,看 這篇
 

7 正則方法機器學習

正則是一大塊,原理方法都要懂,能夠參考這些文章 : 1  2
 

8 歸一化方法函數

基礎問題,隨便那本書都有
 

9 SVD分解 PCA ICA 白化
這部分我沒有被問到,可是應該會問,畢竟是重點,看cs229講義學習

(2)深度學習部分

1 過擬合的原由,怎麼解決測試

這個沒啥好說的,任何講深度學習的書和課程都有,看哪一個都行
 

2 batch normalization

這個問題下的 回答頗有價值
 

3 cnn rnn本質

這篇 文章總結的很好
 

4 梯度彌散/爆炸

沒有太好的文章,看看 這篇講resnet的吧
 

5 激活函數,比較

sigmod tanh relu maxout... 好多,這個隨便一搜就一堆,放一個不太切題的文章吧,我偶像何之源奆佬的 回答,手動滑稽
 

6 梯度降低優化

這就不少了,lan大神的花書講的就很好,博客也能夠看 這個
 

7 各類網絡結構

這個就太多了,cnn的 rnn的,細分還有不少,多看多熟悉吧
 

(3)傳統算法

很奇怪,反而這塊很不重視,考的題都很簡單
阿里在線編程測試
給一個圓,切成n個扇形,塗m種顏色,要求任意兩個相鄰扇形顏色不一樣
思路:首先不考慮首尾位置的扇形是否顏色相同,那麼總共是  種

此時兩種狀況:1)首尾位置扇形顏色相同 2)首尾位置扇形顏色不一樣,第二種知足題意,無論,第一種能夠把首尾顏色相同的扇形合成一個扇形,這樣就成了一個相同要求可是規模是 的問題,這樣遞推公式就是 
 
騰訊二面 面試官隨手問的一個問題
是分水嶺算法的一部分,問題能夠以下描述:假設有一個單通道圖片,背景像素點值爲0,中間的物體像素點值爲1,求出全部物體像素點到背景的最短距離
思路:dp思想,查看鄰點,若是有一個是0,那麼距離爲1,不然該點的距離是鄰點中最短的距離+1,先掃描行,只關心行的不關心列,算出最短距離,再掃描列,只關心列不關心行,更新上一步掃描行後的結果,就是 EDT算法,若是是歐式距離還要掃描斜邊

 

 
騰訊二三面之間的筆試題
有n堆石子,第i堆石子的重量是w[i],每次合併兩堆石子,並計算分數,好比,兩堆石子是x,y,合併後是x+y 分數是x y,一直合併下去,直到只剩一堆石子,求最大累積分數
思路: 一眼看到合併就是哈夫曼樹唄,區別就是哈夫曼樹分數是x+y,這個是x 一眼看到合併就是哈夫曼樹唄,區別就是哈夫曼樹分數是x+y,這個是x*y,那麼每次取兩個最大就好了,優先隊列,彈出兩個最大的相加計算乘積分數,而後結果扔進隊列,直到隊列只剩一個元素

 

(4)數字圖像處理和模式識別

這部分只被問了這一個問題

 
1 Sobel、canny 算子 邊緣檢測算子看 這個

(5)信息論

信息熵、條件熵、互信息、信息增益 等等的計算,騰訊現場筆試考的,具體的題忘了。。。

(6)機率論

1 機率分佈的相關計算

 
2 假設檢驗
 
這部分看看本科的課本吧,都有的,機率論的題考的比較活
相關文章
相關標籤/搜索