初始PyTorch(一):梯度降低

  1、批量梯度降低Batch Gradient Descent: 普通的BGD算法是每次迭代把全部樣本都過一遍,每訓練一組樣本就把梯度更新一次。 簡單的一元二次方程:y=wx+b,有時加入噪聲。損失函數html def loss(b, w, points): totalError = 0 for i in range(0, len(points)): x = po
相關文章
相關標籤/搜索