Partial Convolution based Padding 論文速讀

一、論文背景 現在致力於提高神經網絡性能的研究有不少:主要包括優化器的改進(SGD、ADAM等),激活函數的改進和混搭(RuLU、LeakyReLU、PReLU等),歸一化操做的改進(Batch Norm、Instance Norm、Layer Norm等)。不多有文章試圖改進padding機制,本文作的就是這樣一件事情。git 在此以前,主要的padding 方式有三種:0 padding、對稱
相關文章
相關標籤/搜索