PyTorch(非線性迴歸---3.3)

數據部分上面一小節差不多。 1.這個類的定義,先是定義了隱含層和輸出層,然後定義了前向傳播函數(包括relu處理隱含層輸出、加最終輸出)                       2.優化函數(傳入的參數是神經網絡的參數)以及loss函數。                       3. 這裏的backward是先清空了梯度,在計算梯度,最後在step更新梯度。                
相關文章
相關標籤/搜索