第三天 python
1. csv文件的讀取確實要比excel文件快不少; 數組
2. 在panython3中的range就是python2中的xrange; spa
第四天 excel
3. 發現300天的擬合出現了嚴重的準度問題,都出現負值了,首先我把負值都處理爲0,狀況仍然,而後,開始我懷疑是本身的predict超出了fit範圍致使,可是發現predict的x即便和fit的相同,仍然y_predict很是離譜;接着,因而我懷疑是否是數據須要標準化一下。後來發現standardScaler以後,數據平穩性果真好了。 it
生成相同的數組信息 變量
new_array = np.zeros((5,4)) for i in range(3): new_array[i] = np.array([0.25]*4) csv
第五天 數據
scaler縮放問題 dict
發現scaler有問題,以前是所有數據scaler,發現有問題,其實應該是每行數據進行縮放,這樣纔可以意義;並且這樣還能夠實現同維度縮放,能夠把預測數據放回;不然會由於維度問題而沒法縮放回來; di
可是另一個問題來了;就是對於預測問題這種縮放其實只是暫時的經過縮小數據進而縮小差距,提升了精準度;可是其實一旦縮放回去以後,即放大以後,發現差距仍是很明顯。我以爲預測問題其實標準化意義不是很大;分類領域縮放意義比較大,這個是由於在計算距離上面縮放能夠減少距離由於量綱不一樣致使的變量權重影響;可是在迴歸問題上面則不一樣。
降維
數據1維升2維,經過reshape(-1,1)來實現;二維降一維能夠經過np.array.flatten()實現。
還能夠經過for語句方式實現:
X=[[[1,2,3],[3,4,5]]]
X = [x for y in X for x in y]
print(X)
X = [x for y in X for x in y]
print(X)
output:
[[1, 2, 3], [3, 4, 5]] [1, 2, 3, 3, 4, 5]
第六天
後來我決定定位一下咱們的系統爲數據過濾
ravel()
將多維數組降維爲一維數組。
z = np.array([[[[3]]],[[[3]]]]) z.ravel()
array([3, 3])