神經網絡入門筆記(一)

#一、思路 神經網絡存在 合適的權重w和偏置b,以便擬合訓練數據的過程 叫 學習。 ##1.訓練數據 從訓練數據中提取部分數據(叫做mini-batch) 目的是->減小損失函數的值。 ###mini-batch mini-batch gradient decent,是小批的梯度下降數據,這種方法把數據分爲若干個批,按批來更新參數,這樣,一個批中的一組數據共同決定了本次梯度的方向,下降起來比較穩定
相關文章
相關標籤/搜索