GAP全局池化替代全連接層的分析

首先我們來看一下全連接層的缺點: 在AlexNet及其之前的大抵上所有的基於神經網絡的機器學習算法都要在卷積層之後添加上全連接層來進行特徵的向量化,此外出於神經網絡黑盒子的考慮,有時設計幾個全連接網絡還可以提升卷積神經網絡的分類性能,一度成爲神經網絡使用的標配。 但是,我們同時也注意到,全連接層有一個非常致命的弱點就是參數量過大,特別是與最後一個卷積層相連的全連接層。一方面增加了Training以
相關文章
相關標籤/搜索