3.神經網絡與深度學習(二)—梯度下降算法與隨機梯度下降算法

引言: 我們根據高數中所學的梯度定義知道,二元函數中梯度方向是f(x,y)增長最快的方向,注意:這裏我們的f(x,y)是凸函數,我們嘗試可以從這裏去理解。 1)梯度下降算法 接着上節課講的,我們昨天先把一元函數(一維)的「下降」介紹了一下。那麼同樣的,二元函數也可以類比用這種方法,趨向於極值。例圖如下: 這裏,我們想讓c變小,這也就意味着,我們需要讓C的變化量一直小於0。我們從微積分出發,C的變化
相關文章
相關標籤/搜索