CNN進化史

卷積神經網絡(CNN)近年來取得了長足的發展,是深度學習中的一顆耀眼明珠。CNN不只能用來對圖像進行分類,還在圖像分割(目標檢測)任務中有着普遍的應用。CNN已經成爲了圖像分類的黃金標準,一直在不斷的發展和改進。
劉昕博士總結了CNN的演化歷史,以下圖所示:
 
CNN的起點是神經認知機模型,此時已經出現了卷積結構,經典的LeNet誕生於1998年。然而以後CNN的鋒芒開始被SVM等模型蓋過。隨着ReLU、dropout的提出,以及GPU和大數據帶來的歷史機遇,CNN在2012年迎來了歷史突破:AlexNet。隨後幾年,CNN呈現爆發式發展,各類CNN模型涌現出來。
 
CNN的主要演進方向以下:
一、網絡結構加深
二、增強卷積功能
三、從分類到檢測
四、新增功能模塊網絡

下圖是CNN幾個經典模型(AlexNet、VGG、NIN、GoogLeNet、ResNet)的對比圖,可見網絡層次愈來愈深、結構愈來愈複雜,固然模型效果也是愈來愈好:
 
本博客經過一系列的「大話深度學習」文章,全面詳細地介紹了CNN進化史各個階段的里程碑成果。學習

一、小白講卷積:大話卷積神經網絡(CNN)
 

二、卷積初嘗試:大話CNN經典模型 LeNet
 
三、歷史の突破:大話CNN經典模型 AlexNet
 

四、網絡再加深:大話CNN經典模型VGGNet
 
五、加強卷積功能:大話CNN經典模型GoogLeNet
 
六、從分類到目標檢測:大話目標檢測模型(R-CNN、Fast R-CNN、Faster R-CNN)
 
七、網絡深度創歷史:大話深度殘差網絡(ResNet)大數據

要真正深刻了解學習這些CNN經典模型,最好的辦法是仔細閱讀相應的論文。歡迎關注公衆號「大數據與人工智能Lab」(BigdataAILab),裏面收集整理了CNN各類模型的經典論文
人工智能

關注本人公衆號「大數據與人工智能Lab」(BigdataAILab),而後回覆「論文」關鍵字可在線閱讀經典論文的內容.net

相關文章
相關標籤/搜索