轉載鏈接
問題總結及資料連接
(1)機器學習部分
1 邏輯迴歸部分
常問,推導要會html
2 SVM部分
常問,推導要會,精簡版看下面連接,可是寫的不是很詳細,最好把cs229講義好好看看面試
推導:
https://www.zhihu.com/question/21094489 @靠靠靠譜 的回答
3 集成學習
常問,推導要會算法
bagging方法:看周志華教授的西瓜書
boosting方法:看李航的藍書,特別的對於GBDT,
這篇文章寫的很清晰,推導相對簡單
這裏注意一下,GBDT有兩種,一種是殘差學習,一種是負梯度代替殘差的版本(因此有個G啊),爲啥用負梯度近似殘差也是常問的,其實這個說法就不對,殘差只是在loss用最小二乘時候的一個特例,對
求梯度恰好就是
,換成其餘loss function就不對了,因此應該反過來講,殘差學習只是一個特例,負梯度纔是通用的
stacking方法:沒有特別好的講解,都看看吧,
這篇還行
決策樹:cart樹是最常問的,詳見李航藍書,從推導到剪枝都要會
4 softmax編程
這個相對簡單,
這篇足夠了
5 牛頓法和梯度降低網絡
推導以及優劣比較,相對簡單,直接看cs229講義
6 交叉驗證app
相對簡單,看
這篇
7 正則方法機器學習
8 歸一化方法函數
基礎問題,隨便那本書都有
9 SVD分解 PCA ICA 白化
這部分我沒有被問到,可是應該會問,畢竟是重點,看cs229講義學習
(2)深度學習部分
1 過擬合的原由,怎麼解決測試
這個沒啥好說的,任何講深度學習的書和課程都有,看哪一個都行
2 batch normalization
這個問題下的
回答頗有價值
3 cnn rnn本質
這篇
文章總結的很好
4 梯度彌散/爆炸
沒有太好的文章,看看
這篇講resnet的吧
5 激活函數,比較
sigmod tanh relu maxout... 好多,這個隨便一搜就一堆,放一個不太切題的文章吧,我偶像何之源奆佬的
回答,手動滑稽
6 梯度降低優化
這就不少了,lan大神的花書講的就很好,博客也能夠看
這個
7 各類網絡結構
這個就太多了,cnn的 rnn的,細分還有不少,多看多熟悉吧
(3)傳統算法
很奇怪,反而這塊很不重視,考的題都很簡單
1 阿里在線編程測試
給一個圓,切成n個扇形,塗m種顏色,要求任意兩個相鄰扇形顏色不一樣
思路:首先不考慮首尾位置的扇形是否顏色相同,那麼總共是 種,
此時兩種狀況:1)首尾位置扇形顏色相同 2)首尾位置扇形顏色不一樣,第二種知足題意,無論,第一種能夠把首尾顏色相同的扇形合成一個扇形,這樣就成了一個相同要求可是規模是
的問題,這樣遞推公式就是
,
是分水嶺算法的一部分,問題能夠以下描述:假設有一個單通道圖片,背景像素點值爲0,中間的物體像素點值爲1,求出全部物體像素點到背景的最短距離
思路:dp思想,查看鄰點,若是有一個是0,那麼距離爲1,不然該點的距離是鄰點中最短的距離+1,先掃描行,只關心行的不關心列,算出最短距離,再掃描列,只關心列不關心行,更新上一步掃描行後的結果,就是 EDT算法,若是是歐式距離還要掃描斜邊
3
騰訊二三面之間的筆試題
有n堆石子,第i堆石子的重量是w[i],每次合併兩堆石子,並計算分數,好比,兩堆石子是x,y,合併後是x+y 分數是x
y,一直合併下去,直到只剩一堆石子,求最大累積分數
思路: 一眼看到合併就是哈夫曼樹唄,區別就是哈夫曼樹分數是x+y,這個是x 一眼看到合併就是哈夫曼樹唄,區別就是哈夫曼樹分數是x+y,這個是x*y,那麼每次取兩個最大就好了,優先隊列,彈出兩個最大的相加計算乘積分數,而後結果扔進隊列,直到隊列只剩一個元素
(4)數字圖像處理和模式識別
這部分只被問了這一個問題
1 Sobel、canny 算子 邊緣檢測算子看
這個
(5)信息論
信息熵、條件熵、互信息、信息增益 等等的計算,騰訊現場筆試考的,具體的題忘了。。。
(6)機率論
1 機率分佈的相關計算
2 假設檢驗
這部分看看本科的課本吧,都有的,機率論的題考的比較活