DropBlock: A regularization method for convolutional networks

arxiv上一篇新文章,講如何在卷積層進行dropout來防止網絡過擬合。 原來的dropout方法多是作用在全連接層上,在卷積層應用dropout方法意義不大。文章認爲是因爲每個featuremap的位置都有一個感受野範圍,僅僅對單個像素位置進行dropout並不能降低featuremap學習的特徵範圍,也就是說網絡仍可以通過該位置的相鄰位置元素去學習對應的語義信息,也就不會促使網絡去學習更加魯
相關文章
相關標籤/搜索