GoogleLeNet解析:Going deeper with convolutions

GoogleLeNet深度有22層,但是參數量卻只有AlexNet的1/12。 爲減小計算量並且增加模型寬度,google爲此設計了一種名叫inception module的結構。 inception經歷了從v1到v4的改進,下圖是inception的原始結構。 該結構將1x1,3x3,5x5的卷積和3x3的最大池化操作堆疊在一起,即增加了網絡的寬度,也增加了網絡對多尺度的適應性。 但是5x5的卷
相關文章
相關標籤/搜索