深度學習筆記(四)

在m個樣本上的梯度下降 先區分一下損失函數和代價函數的區別:損失函數是在單個樣本上;代價函數是在多個樣本上,是所有樣本誤差的平均,也就是損失函數的平均 梯度下降: 迭代公式是:w -= a*dJ(w,b)/dw 在多個樣本中,採用for()循環來實現,第一個for循環來實現樣本數的變化,第二個for循環來實現對w,b的迭代 向量化 向量化使得算法運行速度更快,來取代for()循環 本質就是將標量運
相關文章
相關標籤/搜索