深度學習中的局部響應歸一化LRN(Local Response Nomalization)

i表示第i個核在位置(x,y)運用激活函數ReLU後的輸出,n是同一位置上臨近的kernal map的數目,N是kernal的總數。參數K,n,alpha,belta都是超參數,一般設置k=2,n=5,aloha=1*e-4,beta=0.75。 Local Response Nomalization在CNN中設計是什麼意圖? LRN和LCN都 是爲了引入局部競爭機制,個人理解是:在相鄰卷積核生成
相關文章
相關標籤/搜索