cs231以及遷移學習

Normalization的原因 以這個2元分類爲例,不normalization的話,loss非常敏感,分類器稍微改變一下,對loss的影響很大。Normalization後問題得到解決。 在CNN中我們希望每層都normalization,可以用batch normalization learning rate是第一個需要調整的超參數,但當他調好之後再調其他參數 可能對learning rat
相關文章
相關標籤/搜索