maskrcnn_benchmark理解記錄——關於batch norm、relu、dropout 的相對順序以及dropout可不可用

ps: 1.如何在卷積神經網絡中實現全局平均池化。在此之前,建議閱讀 ResNet這篇論文  ,以瞭解全局平均池化操作的好處。代替全連接層。 2. dropout只可能在box分支的兩個全連接層那裏,這個可以後期finetuning下。全連接網絡可以使feature map的維度減少,進而輸入到softmax,但是又會造成過擬合,可以用pooling來代替全連接。那就解決了之前的問題:要不要在fc
相關文章
相關標籤/搜索