CNN網絡結構層次解析

輸入層 卷積層 卷積核其實就是權值  1.2 池化層(Pooling)算法 1.ReLU非線性特徵 網絡 一句話歸納:不用simgoid和tanh做爲激活函數,而用ReLU做爲激活函數的緣由是:加速收斂。函數 由於sigmoid和tanh都是飽和(saturating)的。何爲飽和?我的理解是把這二者的函數曲線和導數曲線plot出來就知道了:他們的導數都是倒過來的碗狀,也就是,越接近目標,對應
相關文章
相關標籤/搜索