如何直觀地解釋 back propagation 算法?

簡單的理解,它的確就是複合函數的鏈式法則,但其在實際運算中的意義比鏈式法則要大的多。 多層神經網絡的本質就是一個多層複合的函數。借用網上找到的一幅圖[1],來直觀描繪一下這種複合關係。 其對應的表達式如下: 上面式中的Wij就是相鄰兩層神經元之間的權值,它們就是深度學習需要學習的參數,也就相當於直線擬合y=k*x+b中的待求參數k和b。 和直線擬合一樣,深度學習的訓練也有一個目標函數,這個目標函數
相關文章
相關標籤/搜索