深度學習中的擬合(欠擬合、過擬合)、正則化

摘自https://testerhome.com/topics/10811 偏差(欠擬合)和方差(過擬合) 要解釋這兩個現象比較複雜,先從下面的圖說起吧。 我們不論在邏輯迴歸,線性迴歸還是在神經網絡中應用的都是線性函數。也就是我們一開始的公式:y=wx + b。 也就是我們上圖最左邊的圖片中,是一條直線。分類算法比較直觀一點的理解就是要在座標空間中找到一個最適合的直線,讓每個樣本所在的點離這條線最
相關文章
相關標籤/搜索