神經網絡算法的相關知識

激活函數relu 從上面也可以看出sigmoid計算量比較大,relu計算量小 上面的224×224×64是卷積後的結果,pool後,也就是池化層後,就變成了112×112×64。 分類會有全連接層,不分類有可能沒有全連接層。
相關文章
相關標籤/搜索