反向傳播:視頻及筆記

通過損失函數更新參數。 推薦視頻 我們希望預測結果的誤差越小越好。 我們可以調節的有W,B,上一層神經元對應的活躍度。 反向傳播:根據結果調節W,B。 沿當前w的某個參數做調節,使得整個誤差減小的效率最高。 越活躍的神經元,越應該調節它的權重,調節的程度比較大。 我們根據下一層的每個神經元對上一層的神經元進行調節,把他們加和,得到下一層所有神經元對上一層神經元的整體調節效果。 這個方式就是梯度下降
相關文章
相關標籤/搜索