深度學習之權重初始化

四種權重初始化方法: 把w初始化爲0 對w隨機初始化 Xavier initialization He initialization 把w初始化爲0: 缺點: 因爲如果把w初始化爲0,那麼每一層的神經元學到的東西都是一樣的(輸出是一樣的)。 在梯度回傳階段,同一層內的所有神經元都是相同的,這樣的話神經網絡就沒有意義了,相當於每一層只有一個神經元。因爲在前項傳播時,同層的所有神經元都相同,w也相同,
相關文章
相關標籤/搜索