吳恩達機器學習筆記3-多變量線性迴歸

上一節中講的是單個變量的處理方法,那多變量問題要怎麼辦呢? (X上標(2)是一個索引,代表着第二個訓練集樣本,此處指的是表格中的第二行。) 梯度運算的使用技巧1:特徵縮放(feature scaling) 數據預處理中,標準的第一步是數據歸一化。如下圖所示,藍色的圈圈圖代表的是兩個特徵的等高線。其中左圖兩個特徵X1和X2的區間相差非常大,X1區間是[0,2000],X2區間是[1,5],其所形成的
相關文章
相關標籤/搜索