【李宏毅 深度學習】Backpropagation

這節講的實質上是 使用Gradient Descent實現Neural Network時是真麼做的。 Gradient Descent的過程之前的帖子已寫,這裏不再贅餘。 但是這種逐個求偏微分的方法效率太低了,試想一下如果一個Neural Network有七八層,每層1000個neuron,那就有上百萬個參數,計算起來時相當困難且費時的。 Backpropagation並不是區別於Gradient
相關文章
相關標籤/搜索