反向傳播的工作原理(深度學習第三章)

https://www.youtube.com/watch?v=Ilg3gGewQ5U What is backpropagation really doing? 梯度向量的每一項大小是在告訴大家,代價函數對於每一個參數有多敏感。 對於改變激活值,可以有三種方法: 1.增加偏置 2.增加權重 3.改變上一層的激活值 對於梯度下降,我們不知看每個參數是該增大還是減小,我們還看哪個參數的性價比最高。
相關文章
相關標籤/搜索