計算機視覺知識點總結

 

目錄:git

0 計算機視覺四大基本任務
1 經典卷積網絡
2 卷積、空洞卷積
3 正則化
4 全卷積網絡
5 1*1卷積核
6 感覺野
7 常見損失
8 優化算法
9 concat 和 add的區別
10 注意力機制
11 CNN(卷積神經網絡)、RNN(循環神經網絡)、DNN(深度神經網絡)
12 邊框迴歸
13 非極大值迴歸(NMS, Soft NMS)
14 激活函數
15 評價指標
16 batch size的選擇
17 Graph Convolutional Network(GCN)

 

0 計算機視覺四大基本任務 
  • 計算機視覺四大基本任務(分類、定位、檢測、分割)

https://zhuanlan.zhihu.com/p/31727402github

 

  • 目標檢測解讀彙總算法

https://zhuanlan.zhihu.com/p/36402362網絡

 

  • 圖像語義分割綜述ide

https://zhuanlan.zhihu.com/p/37801090函數

 

watermark,size_16,text_QDUxQ1RP5Y2a5a6i,color_FFFFFF,t_100,g_se,x_10,y_10,shadow_90,type_ZmFuZ3poZW5naGVpdGk=

 

1 經典卷積網絡

 

  • AlexNet學習

     

  • VGG優化

     

  • GoogleNetorm

  • ResNet:blog

     

     

     

  • Xception

     

  • DenseNet

     

  • shufflenet:https://zhuanlan.zhihu.com/p/48261931

 

 

watermark,size_16,text_QDUxQ1RP5Y2a5a6i,color_FFFFFF,t_100,g_se,x_10,y_10,shadow_90,type_ZmFuZ3poZW5naGVpdGk=

 

2 卷積、空洞卷積

 

 

 

  • 卷積:https://www.zhihu.com/question/22298352

      

 

  • 空洞卷積:https://www.zhihu.com/question/54149221/answer/323880412

        https://zhuanlan.zhihu.com/p/50369448

 

3 正則化

 

  • batch normalization、group normalization:

        

        https://zhuanlan.zhihu.com/p/56219719

 

  •  

 

  • L一、L2:

       

 

 

4 全卷積網絡

 

 

watermark,size_16,text_QDUxQ1RP5Y2a5a6i,color_FFFFFF,t_100,g_se,x_10,y_10,shadow_90,type_ZmFuZ3poZW5naGVpdGk=

 

5 1*1卷積核

 

https://zhuanlan.zhihu.com/p/40050371

 

https://www.zhihu.com/question/56024942

 

 

 

6 感覺野

 

  • 深度神經網絡中的感覺野(Receptive Field):

        https://zhuanlan.zhihu.com/p/28492837

 

7 常見損失
  • 損失函數改進方法總覽:

 

  • 請問faster rcnn和ssd 中爲何用smooth l1 loss,和l2有什麼區別?       https://www.zhihu.com/question/58200555/answer/621174180

 

  • focal loss:https://zhuanlan.zhihu.com/p/32423092

 

  • 交叉熵:

 

 

  • 對比損失(Contrastive Loss):

 

  

  •  三元組損失(Triplet Loss):

 

 

8 優化算法

 

 

  • Momentum:https://zhuanlan.zhihu.com/p/21486826

  • Nesterov Accelerated Gradient:https://zhuanlan.zhihu.com/p/22810533

 

9 concat 和 add的區別

 

  • 如何理解神經網絡中經過add的方式融合特徵?

https://www.zhihu.com/question/306213462/answer/562776112

 

10 注意力機制

 

  • 計算機視覺中的注意力機制:

        https://zhuanlan.zhihu.com/p/32928645

    

        https://zhuanlan.zhihu.com/p/56501461

 

11 CNN(卷積神經網絡)、RNN(循環神經網絡)、DNN(深度神經網絡)

 

  • CNN(卷積神經網絡)、RNN(循環神經網絡)、DNN(深度神經網絡)的內部網絡結構有什麼區別?

        https://www.zhihu.com/question/34681168/answer/84061846

 

12 邊框迴歸 
  • 邊框迴歸(Bounding Box Regression)詳解

 

 

13 非極大值迴歸(NMS, Soft NMS)

 

  •  

 

  • Soft NMS:

        Soft NMS算法筆記

 

 

14 激活函數

 

  • 深度學習中的激活函數導引:

        https://zhuanlan.zhihu.com/p/22142013

 

  • 如何理解ReLU activation function?

https://www.zhihu.com/question/59031444/answer/177786603

 

  • 請問人工神經網絡中的activation function的做用具體是什麼?爲何ReLu要好過於tanh和sigmoid function?

https://www.zhihu.com/question/29021768/answer/43488153

 

15 評價指標

 

  • 目標檢測mAP

        https://github.com/rafaelpadilla/Object-Detection-Metrics

  • 語義分割(PA、MPA、MIoU、FWIoU)

      https://zhuanlan.zhihu.com/p/61880018    

 https://link.zhihu.com/?target=https%3A//arxiv.org/abs/1704.06857

 

16 batch size的選擇

 

  • 怎麼選取訓練神經網絡時的Batch size?

https://www.zhihu.com/question/61607442/answer/440401209

 

  • 深度學習中的batch的大小對學習效果有何影響?

https://www.zhihu.com/question/32673260/answer/71137399

 

17 Graph Convolutional Network(GCN)

 

  • 如何理解 Graph Convolutional Network(GCN)?

https://www.zhihu.com/question/54504471/answer/332657604

 

 

 

watermark,size_16,text_QDUxQ1RP5Y2a5a6i,color_FFFFFF,t_100,g_se,x_10,y_10,shadow_90,type_ZmFuZ3poZW5naGVpdGk=

相關文章
相關標籤/搜索