def linear3(): """ 嶺迴歸的優化方法對波士頓房價預測 """ #獲取數據 boston=load_boston() #劃分數據集 x_train,x_test,y_train,y_test=train_test_split(boston.data,boston.target,random_state=22) #標準化 transfer=StandardScaler() x_train=transfer.fit_transform(x_train) x_test=transfer.transform(x_test) #預估器 # estimator=Ridge(alpha=0.0001, max_iter=100000) # estimator.fit(x_train,y_train) #保存模型 # joblib.dump(estimator,"my_ridge.pkl") #加載模型 estimator=joblib.load("my_ridge.pkl") #得出模型 print("嶺迴歸-權重係數爲:\n",estimator.coef_) print("嶺迴歸-偏置爲:\n",estimator.intercept_ ) #模型評估 y_predict = estimator.predict(x_test) print("預測房價:\n", y_predict) error = mean_squared_error(y_test, y_predict) print("嶺迴歸-均方差偏差:\n", error) return None if __name__ == '__main__': # linear1() # linear2() linear3()
保存:保存訓練完結束的模型算法
加載:加載已有的模型,去進行預測結果和以前的模型同樣api
咱們先來看一下一個K-means的聚類效果圖dom
咱們以一張圖來解釋效果性能
如何評估聚類的效果?學習
分析過程(咱們以一個藍1點爲例)優化
一、計算出藍1離自己族羣全部點的距離的平均值a_ispa
二、藍1到其它兩個族羣的距離計算出平均值紅平均,綠平均,取最小的那個距離做爲b_i3d
若是b_i>>a_i:趨近於1效果越好, b_i<<a_i:趨近於-1,效果很差。輪廓係數的值是介於 [-1,1] ,越趨近於1表明內聚度和分離度都相對較優。code