圖像算法面試題彙總

1.二叉搜索樹的插入與搜索,及其平均時間複雜度、最壞時間複雜度python

2.二叉搜索樹怎麼轉平衡二叉樹  linux

3.C++的左值與右值,std:move(),深拷貝和淺拷貝c++

4.面向對象的概念git

5.C++的虛函數github

6.面向對象的三大特徵算法

7.ROI Align的本質是否是resize操做?ROI Align細節網絡

 

8.目標檢測two-stage模型多線程

       RCNN->SPPNet-> Fast RCNN-> Faster RCNN-> RFCN-> DCN->DCNv2app

9.目標檢測one-stage模型框架

       YOLOv1\v2\v3->SSD->RefineDet->retinaNet

       YOLO和SSD的區別

10.resnet和densenet的區別,denseNet有沒有改進模型(DPN、AAAI2018的MixNet),相同層數resnet、denseNet哪一個好?

 

11.inception系列的演化

12.BN的原理和實現細節,其中均值和標準差的計算,以及訓練和測試時分別怎麼用

13.focal loss,用的什麼核的,效果有沒有區別,調過參數沒有。Focal loss的兩個參數有什麼做用

14.小目標檢測用什麼方法

15.mobileNet v1\v2\v3

16.COCO冠軍方案

17.多標籤不平衡怎麼處理,多任務不平衡怎麼處理

18.改善NMS

       IOU-guided-nms:IOUNet\softNMS\sofer-nms   實現細節

19.改善RPN

20.RFBNet

       Receptive Field Block

       模擬人類視覺的感覺野增強網絡的特徵提取能力,在結構上RFB借鑑了inception的思想,主要是在inception的基礎上假如了dilation卷積層,從而有效增大了感覺野。

21.深度可分離卷積

22.two-stage爲何效果好

23.激活函數

24.損失函數,分類loss函數

25.數字圖像處理的各類濾波

26.k折交叉驗證

27.模型融合:adaboost

28.C++指針和引用的區別

29.mask rcnn和mask scoring rcnn

30.logistic迴歸、SVM、boosting/bagging

31.數據預處理transformer模塊

32.處理不平衡的方法

33.圓上任意三個點組成的三角形包含圓心的機率

34.GAN

35.分佈式,多卡使用

36.dataloder、dataset、sampler關係

37.人臉和身體一塊兒檢測,怎麼處理

38.目標檢測存在的問題,及我的理解;小目標怎麼解決,遮擋怎麼解決

39.機率:x,y,z都是(0,1)均勻分佈,x+y+z<1的機率

40.人臉屬性的任務、方法

41.n個文件(海量文件),查找和排序,二分查找的時間複雜度

42.知道哪些CV任務

       分類、檢測、分割、姿態、GAN、VAE\caption等

43.卷積、池化、全鏈接層、BN/IN/GN等

44.優化器

45.mAP的概念

46.傳統機器學習,SVM\boosting\bagging\隨機森林

       Bagging和隨機森林的區別

47.屬性任務不平衡

48.屬性任務的實際應用,目標檢測實際應用

49.各類排序算法,快排時間複雜度,快排時間複雜度推導

50.時間複雜度爲O(1)的排序算法

51.detection的two-stage的閾值有什麼好方法,cascade RCNN?

52.模型具體的recall和precision

53.weighted sample 和focal loss

54.若是訓練集不平衡,測試集平衡,直接訓練、過採樣和欠採樣處理,哪一個更好?

55.F1 score的alpha=1,那麼alpha取其餘值是什麼含義。

56.canny邊緣檢測

57.SVM的核函數,損失函數

58.KNN

59.視頻分類網絡:分兩路,一路提取視頻音頻特徵,一路提取視頻時空特徵。如何融合兩路特徵。

60.Faster RCNN的細節,怎麼篩選正負Anchor

61. OHEM原理

62. YOLO2細節

63.python的copy()和deepcopy() 普通賦值,有啥區別

64.loss不下降怎麼辦,val loss不升(過擬合)怎麼辦

65.pytorch\tensorflow的區別

66. Discriminative loss 解釋

67.模型壓縮瞭解哪些

68.比賽的數據比例分別是多少,類別不平衡怎麼處理

69.如何處理梯度彌散問題?CNN-LSTM

70.policy gradient和Q learning的區別

71.語義分割到實例分割怎麼作

72.介紹下圖像裏面的多尺度(FPN、不一樣rate的空洞卷積等)

73.CTPN、OCR

74.SIFT、HOG。SIFT是如何保持尺度不變性的。

75.如何根據局部特徵去檢索更大的圖片

76.OpenCV如何讀取數據流中的圖片

77.OpenCV如何生成圖片

78.機率題:連續拋一枚公平的硬幣,直到連續出現兩次正面爲止,平均要扔多少次硬幣

79.交叉熵的公式,多類別交叉熵具體怎麼計算的(標籤x機率)

80.linux查找進程,查找文件

81.說說特徵工程、特徵融合原則、怎麼篩選

82.boosting、lightGBM

83.介紹下ENet\UNet

84.實例分割、二值分割的區別

85.python的static裝飾器

86.numpy用法,對某個矩陣的某一列所有置0,用什麼操做

87.softmax公式,softmax的梯度是什麼?

88.數據加強用了什麼方法,在線加強和離線加強有什麼區別

89.如何處理mask重合問題

90.faster rcnn中採用的相似focal loss的操做是什麼

91.上採樣方法、反捲積

92.Miou語義分割評價指標

93.兩個bbox的頂點,如何快速判斷重疊

94.說一下faster-rcnn的整個從輸入到輸出的框架流程

95.說一下RPN的原理

96.如何解決類內的檢測

97.講一下小目標檢測,FPN爲何能提升小目標的‘準確率’,FPN的特徵融合爲何是相加操做呢?FPN是怎麼提升小目標的‘檢出率’的?小目標在FPN的什麼位置檢測?

98.若是有很長、很小或者很寬的目標,用過如何處理

99.pytorch的卷積是如何實現的?

100.python多線程

101.大目標若是有兩個候選框和GT重合應該怎麼處理

102.爲何說ResNet101不適合檢測

103.SENet爲何效果好?爲何說SENet泛化性能好?SE接在ResNet\inception的什麼位置呢?

104. sigmoid和softmax的區別

105. DetNet原理

106.知識蒸餾:用大網絡教小網絡的方法?

107.假如一個圖片中有一個很大的目標還有一個很小的目標,你會怎麼處理?

108.多尺度訓練如何設置?

109.長邊爲何設置成1333,短邊爲何設置成32的倍數?

110.anchor-free爲何能從新火起來?

111.smooth L1 loss爲何更有效?

112.SGD、Adam之類優化的原理

113.BN爲何有效?

114.python有哪些經常使用的庫,報一遍

115.說一下使用pytorch對cifar10數據集分類的整個代碼流程,構建模型的過程是怎麼樣的?

116.github的經常使用操做:上傳、合併、分支之類的

117.linux的經常使用操做:查看文件大小、刪除文件、查看文件行數、假如文件中的有不少文件,每一個文件中又有不少文件,如何刪除所有文件?

118.siamRPN、siamFC、DeSiam、SiamRPN++原理

119.有沒有修改太輕量級模型、講一下輕量級的模型。mobileNetv1\v2\v3,shuffleNetv1\v二、xception

120.決策樹、集成學習

121.mask rcnn如何提升mask的分辨率

122.info GAN和GAN的細緻區別

123.YOLO識別微笑物體效果差,爲何?

124.如何在3kw像素的圖片中識別出10像素左右的瑕疵

125.mAP這個指標,在什麼場景下適用,什麼場景下會有問題,好比哪些問題?

126.WGAN的公式,原理

127.python的字典的實現

128.LR的損失函數與推導

129.C++ STL用過哪些,知道map的底層實現嘛?

130說說紅黑樹?

131.define和const和static區別?

132.與SGD相似的優化方法:momentum、Adagrad、Adam等

133.二階優化方法有哪些?相比一階的區別?

134.SVM推導。核函數,調參等

135.xgboost和gdbt怎麼作迴歸和分類的,有什麼區別?

136.c++虛函數?虛函數表?

137.python list反轉?元素去重複?

138.depplab、ASPP是怎樣的?

139.k-means是怎麼實現的,k近鄰算法呢?

140.靜態變量有什麼用,靜態變量在哪初始化,能在類內初始化嘛?靜態函數有什麼用?

141.如何使用多線程加速pytorch的dataloader?

142.python的append和extend有什麼區別?

143.BP的過程

144.反捲積具體怎麼實現的?

145.進程與線程的區別,以及何時適合用線程進程

146.c++  STL中的map和hash_map的查找算法是怎麼樣的?時間複雜度是多少?

147.pytorch的permute和view的功能

148.手寫計算AUC曲面面積的代碼

149.如何解決過擬合

150.講一下隨機森林的原理

151.python的對象(object)和C++中的對象有什麼區別?

152.python的lambda

153.手寫中值濾波,介紹一下高斯濾波、均值濾波

154.進程、線程、協程的區別以及用處

155.c++中析構函數的做用、static的做用和特色

156.SIFT特徵提取怎麼作的,具有什麼性質?爲何? HOG特徵提取怎麼作的,具有什麼性質? Haar特徵提取怎麼作的,具有什麼性質?LBP特徵提取是怎麼作的?

相關文章
相關標籤/搜索