K-Means的細節問題#####算法
K值怎麼定?我怎麼知道應該幾類?
答:這個真的沒有肯定的作法,分幾類主要取決於我的的經驗與感受,一般的作法是多嘗試幾個K值,看分紅幾類的結果更好解釋,更符合分析目的等。或者能夠把各類K值算出的SSE作比較,取最小的SSE的K值。函數
初始的K個質心怎麼選?
答:最經常使用的方法是隨機選,初始質心的選取對最終聚類結果有影響,所以算法必定要多執行幾回,哪一個結果更reasonable,就用哪一個結果。 固然也有一些優化的方法,第一種是選擇彼此距離最遠的點,具體來講就是先選第一個點,而後選離第一個點最遠的當第二個點,而後選第三個點,第三個點到第1、第二兩點的距離之和最小,以此類推。第二種是先根據其餘聚類算法(如層次聚類)獲得聚類結果,從結果中每一個分類選一個點。優化
K-Means會不會陷入一直選質心的過程,永遠停不下來?
答:不會,有數學證實K-Means必定會收斂,大體思路是利用SSE的概念(也就是偏差平方和),即每一個點到自身所歸屬質心的距離的平方和,這個平方和是一個函數,而後可以證實這個函數是能夠最終收斂的函數。orm
判斷每一個點歸屬哪一個質心的距離怎麼算?
答:這個問題必須不得不提一下數學了……
第一種,歐幾里德距離(歐幾里德這位爺仍是很厲害的,《幾何本來》被稱爲古希臘數學的高峯,就是用5個公理推導出了整個平面幾何的結論),這個距離就是平時咱們理解的距離,若是是兩個平面上的點,也就是(X1,Y1),和(X2,Y2),那這倆點距離是多少初中生都會,就是√( (x1-x2)2+(y1-y2)2) ,若是是三維空間中呢?√( (x1-x2)2+(y1-y2)2+(z1-z2)^2 ;推廣到高維空間公式就以此類推。能夠看出,歐幾里德距離真的是數學加減乘除算出來的距離,所以這就是隻能用於連續型變量的緣由。
第二種,餘弦類似度,餘弦類似度用向量空間中兩個向量夾角的餘弦值做爲衡量兩個個體間差別的大小。相比距離度量,餘弦類似度更加註重兩個向量在方向上的差別,而非距離或長度上。下圖表示餘弦類似度的餘弦是哪一個角的餘弦,A,B是三維空間中的兩個向量,這兩個點與三維空間原點連線造成的角,若是角度越小,說明這兩個向量在方向上越接近,在聚類時就歸成一類:排序
cosine數學
還有一個重要的問題是,你們的單位要一致!
好比X的單位是米,Y也是米,那麼距離算出來的單位仍是米,是有意義的
可是若是X是米,Y是噸,用距離公式計算就會出現「米的平方」加上「噸的平方」再開平方,最後算出的東西沒有數學意義,這就有問題了。
還有,即便X和Y單位一致,可是若是數據中X總體都比較小,好比都是1到10之間的數,Y很大,好比都是1000以上的數,那麼,在計算距離的時候Y起到的做用就比X大不少,X對於距離的影響幾乎能夠忽略,這也有問題。
所以,若是K-Means聚類中選擇歐幾里德距離計算距離,數據集又出現了上面所述的狀況,就必定要進行數據的標準化(normalization),即將數據按比例縮放,使之落入一個小的特定區間。去除數據的單位限制,將其轉化爲無量綱的純數值,便於不一樣單位或量級的指標可以進行計算和比較。
標準化方法最經常使用的有兩種:產品
每一輪迭代如何選出新的質心?
答:各個維度的算術平均,好比(X1,Y1,Z1)、(X2,Y2,Z2)、(X3,Y3,Z3),那就新質心就是【(X1+X2+X3)/3,(Y1+Y2+Y3)/3,(Z1,Z2,Z3)/3】,這裏要注意,新質心不必定是實際的一個數據點。io
關於離羣值?
答:離羣值就是遠離總體的,很是異常、很是特殊的數據點,在聚類以前應該將這些「極大」「極小」之類的離羣數據都去掉,不然會對於聚類的結果有影響。可是,離羣值每每自身就頗有分析的價值,能夠把離羣值單獨做爲一類來分析。變量
用SPSS做出的K-Means聚類結果,包含ANOVA(單因素方差分析),是什麼意思?
答:答簡單說就是判斷用於聚類的變量是否對於聚類結果有貢獻,方差分析檢驗結果越顯著的變量,說明對聚類結果越有影響。對於不顯著的變量,能夠考慮從模型中剔除。方法
5、聚類分析中業務專家的做用#####
業務專家的做用很是大,主要體如今聚類變量的選擇和對於聚類結果的解讀:
做者:程sir 連接:https://www.jianshu.com/p/fc91fed8c77b 來源:簡書 著做權歸做者全部。商業轉載請聯繫做者得到受權,非商業轉載請註明出處。