論文之DenseNet

轉自:https://blog.csdn.net/xuanwu_yan/article/details/75042456 方法 我們回顧一下ResNet,大意就是本層的激活值與本層的輸入,作爲本層的輸出。換一種方式理解,第ll層的激活值不僅僅影響l+1l+1層,而且還影響l+2l+2層。那麼由此及廣,我們可不可以讓第l層的激活值一直影響到第l+kl+k層呢?這樣就有了本文的基本思想,稠密就是從這裏
相關文章
相關標籤/搜索