1.二叉搜索樹的插入與搜索,及其平均時間複雜度、最壞時間複雜度python
2.二叉搜索樹怎麼轉平衡二叉樹 linux
3.C++的左值與右值,std:move(),深拷貝和淺拷貝c++
4.面向對象的概念git
5.C++的虛函數github
6.面向對象的三大特徵算法
7.ROI Align的本質是否是resize操做?ROI Align細節網絡
8.目標檢測two-stage模型多線程
RCNN->SPPNet-> Fast RCNN-> Faster RCNN-> RFCN-> DCN->DCNv2app
9.目標檢測one-stage模型框架
YOLOv1\v2\v3->SSD->RefineDet->retinaNet
YOLO和SSD的區別
10.resnet和densenet的區別,denseNet有沒有改進模型(DPN、AAAI2018的MixNet),相同層數resnet、denseNet哪一個好?
11.inception系列的演化
12.BN的原理和實現細節,其中均值和標準差的計算,以及訓練和測試時分別怎麼用
13.focal loss,用的什麼核的,效果有沒有區別,調過參數沒有。Focal loss的兩個參數有什麼做用
14.小目標檢測用什麼方法
15.mobileNet v1\v2\v3
16.COCO冠軍方案
17.多標籤不平衡怎麼處理,多任務不平衡怎麼處理
18.改善NMS
IOU-guided-nms:IOUNet\softNMS\sofer-nms 實現細節
19.改善RPN
20.RFBNet
Receptive Field Block
模擬人類視覺的感覺野增強網絡的特徵提取能力,在結構上RFB借鑑了inception的思想,主要是在inception的基礎上假如了dilation卷積層,從而有效增大了感覺野。
21.深度可分離卷積
22.two-stage爲何效果好
23.激活函數
24.損失函數,分類loss函數
25.數字圖像處理的各類濾波
26.k折交叉驗證
27.模型融合:adaboost
28.C++指針和引用的區別
29.mask rcnn和mask scoring rcnn
30.logistic迴歸、SVM、boosting/bagging
31.數據預處理transformer模塊
32.處理不平衡的方法
33.圓上任意三個點組成的三角形包含圓心的機率
34.GAN
35.分佈式,多卡使用
36.dataloder、dataset、sampler關係
37.人臉和身體一塊兒檢測,怎麼處理
38.目標檢測存在的問題,及我的理解;小目標怎麼解決,遮擋怎麼解決
39.機率:x,y,z都是(0,1)均勻分佈,x+y+z<1的機率
40.人臉屬性的任務、方法
41.n個文件(海量文件),查找和排序,二分查找的時間複雜度
42.知道哪些CV任務
分類、檢測、分割、姿態、GAN、VAE\caption等
43.卷積、池化、全鏈接層、BN/IN/GN等
44.優化器
45.mAP的概念
46.傳統機器學習,SVM\boosting\bagging\隨機森林
Bagging和隨機森林的區別
47.屬性任務不平衡
48.屬性任務的實際應用,目標檢測實際應用
49.各類排序算法,快排時間複雜度,快排時間複雜度推導
50.時間複雜度爲O(1)的排序算法
51.detection的two-stage的閾值有什麼好方法,cascade RCNN?
52.模型具體的recall和precision
53.weighted sample 和focal loss
54.若是訓練集不平衡,測試集平衡,直接訓練、過採樣和欠採樣處理,哪一個更好?
55.F1 score的alpha=1,那麼alpha取其餘值是什麼含義。
56.canny邊緣檢測
57.SVM的核函數,損失函數
58.KNN
59.視頻分類網絡:分兩路,一路提取視頻音頻特徵,一路提取視頻時空特徵。如何融合兩路特徵。
60.Faster RCNN的細節,怎麼篩選正負Anchor
61. OHEM原理
62. YOLO2細節
63.python的copy()和deepcopy() 普通賦值,有啥區別
64.loss不下降怎麼辦,val loss不升(過擬合)怎麼辦
65.pytorch\tensorflow的區別
66. Discriminative loss 解釋
67.模型壓縮瞭解哪些
68.比賽的數據比例分別是多少,類別不平衡怎麼處理
69.如何處理梯度彌散問題?CNN-LSTM
70.policy gradient和Q learning的區別
71.語義分割到實例分割怎麼作
72.介紹下圖像裏面的多尺度(FPN、不一樣rate的空洞卷積等)
73.CTPN、OCR
74.SIFT、HOG。SIFT是如何保持尺度不變性的。
75.如何根據局部特徵去檢索更大的圖片
76.OpenCV如何讀取數據流中的圖片
77.OpenCV如何生成圖片
78.機率題:連續拋一枚公平的硬幣,直到連續出現兩次正面爲止,平均要扔多少次硬幣
79.交叉熵的公式,多類別交叉熵具體怎麼計算的(標籤x機率)
80.linux查找進程,查找文件
81.說說特徵工程、特徵融合原則、怎麼篩選
82.boosting、lightGBM
83.介紹下ENet\UNet
84.實例分割、二值分割的區別
85.python的static裝飾器
86.numpy用法,對某個矩陣的某一列所有置0,用什麼操做
87.softmax公式,softmax的梯度是什麼?
88.數據加強用了什麼方法,在線加強和離線加強有什麼區別
89.如何處理mask重合問題
90.faster rcnn中採用的相似focal loss的操做是什麼
91.上採樣方法、反捲積
92.Miou語義分割評價指標
93.兩個bbox的頂點,如何快速判斷重疊
94.說一下faster-rcnn的整個從輸入到輸出的框架流程
95.說一下RPN的原理
96.如何解決類內的檢測
97.講一下小目標檢測,FPN爲何能提升小目標的‘準確率’,FPN的特徵融合爲何是相加操做呢?FPN是怎麼提升小目標的‘檢出率’的?小目標在FPN的什麼位置檢測?
98.若是有很長、很小或者很寬的目標,用過如何處理
99.pytorch的卷積是如何實現的?
100.python多線程
101.大目標若是有兩個候選框和GT重合應該怎麼處理
102.爲何說ResNet101不適合檢測
103.SENet爲何效果好?爲何說SENet泛化性能好?SE接在ResNet\inception的什麼位置呢?
104. sigmoid和softmax的區別
105. DetNet原理
106.知識蒸餾:用大網絡教小網絡的方法?
107.假如一個圖片中有一個很大的目標還有一個很小的目標,你會怎麼處理?
108.多尺度訓練如何設置?
109.長邊爲何設置成1333,短邊爲何設置成32的倍數?
110.anchor-free爲何能從新火起來?
111.smooth L1 loss爲何更有效?
112.SGD、Adam之類優化的原理
113.BN爲何有效?
114.python有哪些經常使用的庫,報一遍
115.說一下使用pytorch對cifar10數據集分類的整個代碼流程,構建模型的過程是怎麼樣的?
116.github的經常使用操做:上傳、合併、分支之類的
117.linux的經常使用操做:查看文件大小、刪除文件、查看文件行數、假如文件中的有不少文件,每一個文件中又有不少文件,如何刪除所有文件?
118.siamRPN、siamFC、DeSiam、SiamRPN++原理
119.有沒有修改太輕量級模型、講一下輕量級的模型。mobileNetv1\v2\v3,shuffleNetv1\v二、xception
120.決策樹、集成學習
121.mask rcnn如何提升mask的分辨率
122.info GAN和GAN的細緻區別
123.YOLO識別微笑物體效果差,爲何?
124.如何在3kw像素的圖片中識別出10像素左右的瑕疵
125.mAP這個指標,在什麼場景下適用,什麼場景下會有問題,好比哪些問題?
126.WGAN的公式,原理
127.python的字典的實現
128.LR的損失函數與推導
129.C++ STL用過哪些,知道map的底層實現嘛?
130說說紅黑樹?
131.define和const和static區別?
132.與SGD相似的優化方法:momentum、Adagrad、Adam等
133.二階優化方法有哪些?相比一階的區別?
134.SVM推導。核函數,調參等
135.xgboost和gdbt怎麼作迴歸和分類的,有什麼區別?
136.c++虛函數?虛函數表?
137.python list反轉?元素去重複?
138.depplab、ASPP是怎樣的?
139.k-means是怎麼實現的,k近鄰算法呢?
140.靜態變量有什麼用,靜態變量在哪初始化,能在類內初始化嘛?靜態函數有什麼用?
141.如何使用多線程加速pytorch的dataloader?
142.python的append和extend有什麼區別?
143.BP的過程
144.反捲積具體怎麼實現的?
145.進程與線程的區別,以及何時適合用線程進程
146.c++ STL中的map和hash_map的查找算法是怎麼樣的?時間複雜度是多少?
147.pytorch的permute和view的功能
148.手寫計算AUC曲面面積的代碼
149.如何解決過擬合
150.講一下隨機森林的原理
151.python的對象(object)和C++中的對象有什麼區別?
152.python的lambda
153.手寫中值濾波,介紹一下高斯濾波、均值濾波
154.進程、線程、協程的區別以及用處
155.c++中析構函數的做用、static的做用和特色
156.SIFT特徵提取怎麼作的,具有什麼性質?爲何? HOG特徵提取怎麼作的,具有什麼性質? Haar特徵提取怎麼作的,具有什麼性質?LBP特徵提取是怎麼作的?