注:關於支持向量機系列文章是借鑑大神的神做,加以本身的理解寫成的;若對原做者有損請告知,我會及時處理。轉載請標明來源。html
我在支持向量機系列中主要講支持向量機的公式推導,第一部分講到推出拉格朗日對偶函數的對偶因子α;第二部分是SMO算法對於對偶因子的求解;第三部分是核函數的原理與應用,講核函數的推理及經常使用的核函數有哪些;第四部分是支持向量機的應用,按照機器學習實戰的代碼詳細解讀。python
機器學習之支持向量機(四):支持向量機的Python語言實現機器學習
這篇文章是根據《機器學習實戰》一書的實例進行代碼的詳細解讀,我在查找這方面的資料沒有人對支持向量機算法 python 實現的詳細說明,我就把我在看代碼時的思路和代碼詳細註解。若是存在不足,歡迎給我留言相互探討。好了,廢話很少說,正文開始。。。ide
首先咱們使用的數據是二維的座標點,還有對應的類標號(1 或 -1)。數據集以 「testSet.txt」 命名,以下代碼段中:函數
1 3.542485 1.977398 -1 2 3.018896 2.556416 -1 3 7.551510 -1.580030 1 4 2.114999 -0.004466 -1 5 8.127113 1.274372 1 6 7.108772 -0.986906 1 7 8.610639 2.046708 1 8 2.326297 0.265213 -1 9 3.634009 1.730537 -1 10 0.341367 -0.894998 -1 11 3.125951 0.293251 -1 12 2.123252 -0.783563 -1 13 0.887835 -2.797792 -1 14 7.139979 -2.329896 1 15 1.696414 -1.212496 -1 16 8.117032 0.623493 1 17 8.497162 -0.266649 1 18 4.658191 3.507396 -1 19 8.197181 1.545132 1 20 1.208047 0.213100 -1 21 1.928486 -0.321870 -1 22 2.175808 -0.014527 -1 23 7.886608 0.461755 1 24 3.223038 -0.552392 -1 25 3.628502 2.190585 -1 26 7.407860 -0.121961 1 27 7.286357 0.251077 1 28 2.301095 -0.533988 -1 29 -0.232542 -0.547690 -1 30 3.457096 -0.082216 -1 31 3.023938 -0.057392 -1 32 8.015003 0.885325 1 33 8.991748 0.923154 1 34 7.916831 -1.781735 1 35 7.616862 -0.217958 1 36 2.450939 0.744967 -1 37 7.270337 -2.507834 1 38 1.749721 -0.961902 -1 39 1.803111 -0.176349 -1 40 8.804461 3.044301 1 41 1.231257 -0.568573 -1 42 2.074915 1.410550 -1 43 -0.743036 -1.736103 -1 44 3.536555 3.964960 -1 45 8.410143 0.025606 1 46 7.382988 -0.478764 1 47 6.960661 -0.245353 1 48 8.234460 0.701868 1 49 8.168618 -0.903835 1 50 1.534187 -0.622492 -1 51 9.229518 2.066088 1 52 7.886242 0.191813 1 53 2.893743 -1.643468 -1 54 1.870457 -1.040420 -1 55 5.286862 -2.358286 1 56 6.080573 0.418886 1 57 2.544314 1.714165 -1 58 6.016004 -3.753712 1 59 0.926310 -0.564359 -1 60 0.870296 -0.109952 -1 61 2.369345 1.375695 -1 62 1.363782 -0.254082 -1 63 7.279460 -0.189572 1 64 1.896005 0.515080 -1 65 8.102154 -0.603875 1 66 2.529893 0.662657 -1 67 1.963874 -0.365233 -1 68 8.132048 0.785914 1 69 8.245938 0.372366 1 70 6.543888 0.433164 1 71 -0.236713 -5.766721 -1 72 8.112593 0.295839 1 73 9.803425 1.495167 1 74 1.497407 -0.552916 -1 75 1.336267 -1.632889 -1 76 9.205805 -0.586480 1 77 1.966279 -1.840439 -1 78 8.398012 1.584918 1 79 7.239953 -1.764292 1 80 7.556201 0.241185 1 81 9.015509 0.345019 1 82 8.266085 -0.230977 1 83 8.545620 2.788799 1 84 9.295969 1.346332 1 85 2.404234 0.570278 -1 86 2.037772 0.021919 -1 87 1.727631 -0.453143 -1 88 1.979395 -0.050773 -1 89 8.092288 -1.372433 1 90 1.667645 0.239204 -1 91 9.854303 1.365116 1 92 7.921057 -1.327587 1 93 8.500757 1.492372 1 94 1.339746 -0.291183 -1 95 3.107511 0.758367 -1 96 2.609525 0.902979 -1 97 3.263585 1.367898 -1 98 2.912122 -0.202359 -1 99 1.731786 0.589096 -1 100 2.387003 1.573131 -1
而後,數據集中對象在下圖顯示,咱們的工做就是找到最佳的超平面(這裏是直線)。post
既然咱們有了數據,那麼就要把數據轉換成能夠被程序調用和處理的形式。寫一個加載數據的函數,把文本中的數據轉化成列表類型。代碼以下:學習
1 # 將文本中的樣本數據添加到列表中 2 def loadDataSet(fileName): 3 dataMat = [] 4 labelMat = [] 5 fr = open(fileName) 6 for line in fr.readlines() : # 對文本按行遍歷 7 lineArr = line.strip().split('\t') 8 dataMat .append([float(lineArr [0]), float(lineArr[1])]) # 每行前兩個是屬性數據,最後一個是類標號 9 labelMat .append(float(lineArr[2])) 10 return dataMat , labelMat
因爲在實現支持向量機的過程當中要屢次調用樣本數據、類標號、對偶因子、對象通過核函數映射以後的值和其餘數據,所以利用創造一個類,初始化這些數據利於保存和調用。代碼以下:
1 class optStruct: 2 def __init__(self,dataMatIn, classLabels, C, toler, kTup): 3 self.X = dataMatIn # 樣本數據 4 self.labelMat = classLabels # 樣本的類標號 5 self.C = C # 對偶因子的上界值 6 self.tol = toler 7 self.m = shape(dataMatIn)[0] # 樣本的行數,即樣本對象的個數 8 self.alphas = mat(zeros((self.m, 1))) # 對偶因子 9 self.b = 0 # 分割函數的截距 10 self.eCache = mat(zeros((self.m, 2))) # 差值矩陣 m * 2,第一列是對象的標誌位 1 表示存在不爲零的差值 0 表示差值爲零,第二列是實際的差值 E 11 self.K = mat(zeros((self.m, self.m))) # 對象通過核函數映射以後的值 12 for i in range(self.m): # 遍歷所有樣本集 13 self.K[:,i] = kernelTrans(self.X, self.X[i,:], kTup ) # 調用徑向基核函數
咱們經過支持向量機(二):SMO算法,可知對偶因子是咱們求得超平面的關鍵,只有解得對偶因子才能獲得超平面的法向量和截距。代碼以下:
1 # 遍歷全部能優化的 alpha 2 def smoP(dataMatIn, classLabels, C, toler, maxIter, kTup=('lin', 0)): 3 oS = optStruct(mat(dataMatIn), mat(classLabels).transpose(), C, toler, kTup) # 建立一個類對象 oS ,類對象 oS 存放全部數據 4 iter = 0 # 迭代次數的初始化 5 entireSet = True # 違反 KKT 條件的標誌符 6 alphaPairsChanged = 0 # 迭代中優化的次數 7 8 # 從選擇第一個 alpha 開始,優化全部alpha 9 while(iter < maxIter) and ((alphaPairsChanged > 0) or (entireSet )): # 優化的終止條件:在規定迭代次數下,是否遍歷了整個樣本或 alpha 是否優化 10 alphaPairsChanged = 0 11 if entireSet: # 12 for i in range(oS.m): # 遍歷全部對象 13 alphaPairsChanged += innerL(i ,oS) # 調用優化函數(不必定優化) 14 print "fullSet , iter: %d i %d, pairs changed %d" % (iter, i , alphaPairsChanged ) 15 iter += 1 # 迭代次數加 1 16 else: 17 nonBoundIs = nonzero((oS.alphas .A > 0) * (oS.alphas.A < C))[0] 18 for i in nonBoundIs : # 遍歷全部非邊界樣本集 19 alphaPairsChanged += innerL(i, oS) # 調用優化函數(不必定優化) 20 print "non-bound, iter: %d i :%d, pairs changed %d" % (iter, i, alphaPairsChanged ) 21 iter += 1 # 迭代次數加 1 22 if entireSet : # 沒有違反KKT 條件的alpha ,終止迭代 23 entireSet = False 24 elif (alphaPairsChanged == 0): # 存在違反 KKT 的alpha 25 entireSet = True 26 print "iteration number: %d" % iter 27 return oS.b, oS.alphas # 返回截距值和 alphas
上述代碼中,第 13 行調用了 innerL() 函數,它是對對偶因子向量的單個元素求解。代碼以下:
1 # 優化選取兩個 alpha ,並計算截距 b 2 def innerL(i, oS): 3 Ei = calcEk(oS, i) # 計算 對象 i 的差值 4 # 第一個 alpha 符合選擇條件進入優化 5 if ((oS.labelMat [i]*Ei <- oS.tol) and (oS.alphas[i] < oS.C)) or ((oS.labelMat [i]*Ei > oS.tol) and (oS.alphas[i] > 0)): 6 j,Ej =selectJ(i, oS, Ei) # 選擇第二個 alpha 7 alphaIold = oS.alphas[i].copy() # 淺拷貝 8 alphaJold = oS.alphas[j].copy() # 淺拷貝 9 10 # 根據對象 i 、j 的類標號(相等或不等)肯定KKT條件的上界和下界 11 if (oS.labelMat[i] != oS.labelMat[j]): 12 L = max(0, oS.alphas [j] - oS.alphas[i]) 13 H = min(oS.C, oS.C + oS.alphas[j] - oS.alphas[i]) 14 else : 15 L = max(0, oS.alphas[j] + oS.alphas [i] - oS.C) 16 H = min(oS.C, oS.alphas [j] + oS.alphas [i]) 17 18 if L==H:print "L==H";return 0 # 不符合優化條件(第二個 alpha) 19 eta = 2.0 * oS.K[i,j] - oS.K[i,i] - oS.K[j,j] # 計算公式的eta ,是公式的相反數 20 if eta >= 0:print "eta>=0";return 0 # 不考慮eta 大於等於 0 的狀況(這種狀況對 alpha 的解是另一種方式,即臨界狀況的求解) 21 # 優化以後的第二個 alpha 值 22 oS.alphas[j] -= oS.labelMat[j]*(Ei - Ej)/eta 23 oS.alphas[j] = clipAlpha(oS.alphas[j], H, L) 24 updateEk(oS, j) # 更新差值矩陣 25 if (abs(oS.alphas[j] - alphaJold) < 0.00001): # 優化以後的 alpha 值與以前的值改變量過小,步長不足 26 print "j not moving enough" 27 return 0 28 oS.alphas[i] += oS.labelMat[j]*oS.labelMat[i]*(alphaJold - oS.alphas[j]) # 優化第二個 alpha 29 updateEk(oS, i) # 更新差值矩陣 30 # 計算截距 b 31 b1 = oS.b - Ei - oS.labelMat[i] * (oS.alphas[i] - alphaIold) * oS.K[i, i] - oS.labelMat[j] * (oS.alphas[j] - alphaJold) * oS.K[i, j] 32 b2 = oS.b - Ej - oS.labelMat[i] * (oS.alphas[i] - alphaIold) * oS.K[i, j] - oS.labelMat[j] * (oS.alphas[j] - alphaJold) * oS.K[j, j] 33 if (0 < oS.alphas [i]) and (oS.C > oS.alphas[i]): 34 oS.b = b1 35 elif (0 < oS.alphas [j]) and (oS.C > oS.alphas [j]): 36 oS.b = b2 37 else : 38 oS.b = (b1 + b2)/2.0 39 return 1 # 進行一次優化 40 else : 41 return 0
這裏第 3 行代碼調用了calcEk() 函數,它是計算預測值與真實值的差值。代碼以下:
1 # 預測的類標號值與真實值的差值,參數 oS 是類對象,k 是樣本的對象的標號 2 def calcEk(oS, k): 3 fXk = float(multiply(oS.alphas, oS.labelMat).T * oS.K[:, k] + oS.b) # 公式(1) 4 Ek = fXk - float(oS.labelMat[k]) # 差值 5 return Ek
其中,第 3 行中指到的公式(1)是超平面方程。
在 innerL()函數中的第 6 行,調用了 selectJ ()函數,此函數是用來選擇優化的第二個對偶因子元素。代碼以下:
1 # 由啓發式選取第二個 alpha,以最大步長爲標準 2 def selectJ(i, oS, Ei): # 函數的參數是選取的第一個 alpha 的對象號、類對象和對象差值 3 maxK = -1; maxDeltaE = 0; Ej = 0 # 第二個 alpha 的初始化 4 oS.eCache[i] = [1,Ei] # 更新差值矩陣的第 i 行 5 validEcacheList = nonzero(oS.eCache[:,0].A)[0] # 取差值矩陣中第一列不爲 0 的全部行數(標誌位爲 1 ),以元組類型返回 6 if (len(validEcacheList)) > 1 : # 7 for k in validEcacheList : # 遍歷全部標誌位爲 1 的對象的差值 8 if k == i: continue 9 Ek = calcEk(oS, k) # 計算對象 k 的差值 10 deltaE = abs(Ei - Ek) # 取兩個差值之差的絕對值 11 if (deltaE > maxDeltaE): # 選取最大的絕對值deltaE 12 maxK = k; maxDeltaE = deltaE; Ej = Ek 13 return maxK, Ej # 返回選取的第二個 alpha 14 else: # 隨機選取第二個 alpha 15 j = selectJrand(i, oS.m) 16 Ej = calcEk(oS,j) 17 return j, Ej # 返回選取的第二個 alpha
這個函數的第 15 行調用了 selectJrand() 函數,是爲了沒有合適的第二個元素,就用隨機的方式選擇。代碼以下:
1 # 隨機選取對偶因子alpha ,參數i 是alpha 的下標,m 是alpha 的總數 2 def selectJrand(i,m): 3 j = i 4 while (j==i): 5 j = int(random.uniform(0,m)) 6 return j
在innerL()函數中的第 23 行調用 clipAlpha() 函數,是根據KKT 條件對對偶因子的修剪。代碼以下:
1 # 對所求的對偶因子按約束條件的修剪 2 def clipAlpha(aj, H, L): # H 爲上界,L爲下界 3 if aj > H: 4 aj = H 5 if L > aj: 6 aj = L 7 return aj
innerL() 函數的第 29 行調用了 updateEk() 函數,更新差值矩陣的數據。代碼以下:
1 # 更新差值矩陣的數據 2 def updateEk(oS, k): 3 Ek = calcEk(oS, k) # 調用計算差值的函數 4 oS.eCache [k] = [1,Ek]
這裏咱們使用的徑向基核函數,把數據從低維映射到高維,把不可分數據變成可分。固然,咱們給出的數據集是線性可分,如今給出另外數據集,分爲訓練集「testSetRBF.txt」和測試集"testSetRBF2.txt"。
徑向基核函數公式以下:
數據集
1 -0.214824 0.662756 -1.000000 2 -0.061569 -0.091875 1.000000 3 0.406933 0.648055 -1.000000 4 0.223650 0.130142 1.000000 5 0.231317 0.766906 -1.000000 6 -0.748800 -0.531637 -1.000000 7 -0.557789 0.375797 -1.000000 8 0.207123 -0.019463 1.000000 9 0.286462 0.719470 -1.000000 10 0.195300 -0.179039 1.000000 11 -0.152696 -0.153030 1.000000 12 0.384471 0.653336 -1.000000 13 -0.117280 -0.153217 1.000000 14 -0.238076 0.000583 1.000000 15 -0.413576 0.145681 1.000000 16 0.490767 -0.680029 -1.000000 17 0.199894 -0.199381 1.000000 18 -0.356048 0.537960 -1.000000 19 -0.392868 -0.125261 1.000000 20 0.353588 -0.070617 1.000000 21 0.020984 0.925720 -1.000000 22 -0.475167 -0.346247 -1.000000 23 0.074952 0.042783 1.000000 24 0.394164 -0.058217 1.000000 25 0.663418 0.436525 -1.000000 26 0.402158 0.577744 -1.000000 27 -0.449349 -0.038074 1.000000 28 0.619080 -0.088188 -1.000000 29 0.268066 -0.071621 1.000000 30 -0.015165 0.359326 1.000000 31 0.539368 -0.374972 -1.000000 32 -0.319153 0.629673 -1.000000 33 0.694424 0.641180 -1.000000 34 0.079522 0.193198 1.000000 35 0.253289 -0.285861 1.000000 36 -0.035558 -0.010086 1.000000 37 -0.403483 0.474466 -1.000000 38 -0.034312 0.995685 -1.000000 39 -0.590657 0.438051 -1.000000 40 -0.098871 -0.023953 1.000000 41 -0.250001 0.141621 1.000000 42 -0.012998 0.525985 -1.000000 43 0.153738 0.491531 -1.000000 44 0.388215 -0.656567 -1.000000 45 0.049008 0.013499 1.000000 46 0.068286 0.392741 1.000000 47 0.747800 -0.066630 -1.000000 48 0.004621 -0.042932 1.000000 49 -0.701600 0.190983 -1.000000 50 0.055413 -0.024380 1.000000 51 0.035398 -0.333682 1.000000 52 0.211795 0.024689 1.000000 53 -0.045677 0.172907 1.000000 54 0.595222 0.209570 -1.000000 55 0.229465 0.250409 1.000000 56 -0.089293 0.068198 1.000000 57 0.384300 -0.176570 1.000000 58 0.834912 -0.110321 -1.000000 59 -0.307768 0.503038 -1.000000 60 -0.777063 -0.348066 -1.000000 61 0.017390 0.152441 1.000000 62 -0.293382 -0.139778 1.000000 63 -0.203272 0.286855 1.000000 64 0.957812 -0.152444 -1.000000 65 0.004609 -0.070617 1.000000 66 -0.755431 0.096711 -1.000000 67 -0.526487 0.547282 -1.000000 68 -0.246873 0.833713 -1.000000 69 0.185639 -0.066162 1.000000 70 0.851934 0.456603 -1.000000 71 -0.827912 0.117122 -1.000000 72 0.233512 -0.106274 1.000000 73 0.583671 -0.709033 -1.000000 74 -0.487023 0.625140 -1.000000 75 -0.448939 0.176725 1.000000 76 0.155907 -0.166371 1.000000 77 0.334204 0.381237 -1.000000 78 0.081536 -0.106212 1.000000 79 0.227222 0.527437 -1.000000 80 0.759290 0.330720 -1.000000 81 0.204177 -0.023516 1.000000 82 0.577939 0.403784 -1.000000 83 -0.568534 0.442948 -1.000000 84 -0.011520 0.021165 1.000000 85 0.875720 0.422476 -1.000000 86 0.297885 -0.632874 -1.000000 87 -0.015821 0.031226 1.000000 88 0.541359 -0.205969 -1.000000 89 -0.689946 -0.508674 -1.000000 90 -0.343049 0.841653 -1.000000 91 0.523902 -0.436156 -1.000000 92 0.249281 -0.711840 -1.000000 93 0.193449 0.574598 -1.000000 94 -0.257542 -0.753885 -1.000000 95 -0.021605 0.158080 1.000000 96 0.601559 -0.727041 -1.000000 97 -0.791603 0.095651 -1.000000 98 -0.908298 -0.053376 -1.000000 99 0.122020 0.850966 -1.000000 100 -0.725568 -0.292022 -1.000000
1 0.676771 -0.486687 -1.000000 2 0.008473 0.186070 1.000000 3 -0.727789 0.594062 -1.000000 4 0.112367 0.287852 1.000000 5 0.383633 -0.038068 1.000000 6 -0.927138 -0.032633 -1.000000 7 -0.842803 -0.423115 -1.000000 8 -0.003677 -0.367338 1.000000 9 0.443211 -0.698469 -1.000000 10 -0.473835 0.005233 1.000000 11 0.616741 0.590841 -1.000000 12 0.557463 -0.373461 -1.000000 13 -0.498535 -0.223231 -1.000000 14 -0.246744 0.276413 1.000000 15 -0.761980 -0.244188 -1.000000 16 0.641594 -0.479861 -1.000000 17 -0.659140 0.529830 -1.000000 18 -0.054873 -0.238900 1.000000 19 -0.089644 -0.244683 1.000000 20 -0.431576 -0.481538 -1.000000 21 -0.099535 0.728679 -1.000000 22 -0.188428 0.156443 1.000000 23 0.267051 0.318101 1.000000 24 0.222114 -0.528887 -1.000000 25 0.030369 0.113317 1.000000 26 0.392321 0.026089 1.000000 27 0.298871 -0.915427 -1.000000 28 -0.034581 -0.133887 1.000000 29 0.405956 0.206980 1.000000 30 0.144902 -0.605762 -1.000000 31 0.274362 -0.401338 1.000000 32 0.397998 -0.780144 -1.000000 33 0.037863 0.155137 1.000000 34 -0.010363 -0.004170 1.000000 35 0.506519 0.486619 -1.000000 36 0.000082 -0.020625 1.000000 37 0.057761 -0.155140 1.000000 38 0.027748 -0.553763 -1.000000 39 -0.413363 -0.746830 -1.000000 40 0.081500 -0.014264 1.000000 41 0.047137 -0.491271 1.000000 42 -0.267459 0.024770 1.000000 43 -0.148288 -0.532471 -1.000000 44 -0.225559 -0.201622 1.000000 45 0.772360 -0.518986 -1.000000 46 -0.440670 0.688739 -1.000000 47 0.329064 -0.095349 1.000000 48 0.970170 -0.010671 -1.000000 49 -0.689447 -0.318722 -1.000000 50 -0.465493 -0.227468 -1.000000 51 -0.049370 0.405711 1.000000 52 -0.166117 0.274807 1.000000 53 0.054483 0.012643 1.000000 54 0.021389 0.076125 1.000000 55 -0.104404 -0.914042 -1.000000 56 0.294487 0.440886 -1.000000 57 0.107915 -0.493703 -1.000000 58 0.076311 0.438860 1.000000 59 0.370593 -0.728737 -1.000000 60 0.409890 0.306851 -1.000000 61 0.285445 0.474399 -1.000000 62 -0.870134 -0.161685 -1.000000 63 -0.654144 -0.675129 -1.000000 64 0.285278 -0.767310 -1.000000 65 0.049548 -0.000907 1.000000 66 0.030014 -0.093265 1.000000 67 -0.128859 0.278865 1.000000 68 0.307463 0.085667 1.000000 69 0.023440 0.298638 1.000000 70 0.053920 0.235344 1.000000 71 0.059675 0.533339 -1.000000 72 0.817125 0.016536 -1.000000 73 -0.108771 0.477254 1.000000 74 -0.118106 0.017284 1.000000 75 0.288339 0.195457 1.000000 76 0.567309 -0.200203 -1.000000 77 -0.202446 0.409387 1.000000 78 -0.330769 -0.240797 1.000000 79 -0.422377 0.480683 -1.000000 80 -0.295269 0.326017 1.000000 81 0.261132 0.046478 1.000000 82 -0.492244 -0.319998 -1.000000 83 -0.384419 0.099170 1.000000 84 0.101882 -0.781145 -1.000000 85 0.234592 -0.383446 1.000000 86 -0.020478 -0.901833 -1.000000 87 0.328449 0.186633 1.000000 88 -0.150059 -0.409158 1.000000 89 -0.155876 -0.843413 -1.000000 90 -0.098134 -0.136786 1.000000 91 0.110575 -0.197205 1.000000 92 0.219021 0.054347 1.000000 93 0.030152 0.251682 1.000000 94 0.033447 -0.122824 1.000000 95 -0.686225 -0.020779 -1.000000 96 -0.911211 -0.262011 -1.000000 97 0.572557 0.377526 -1.000000 98 -0.073647 -0.519163 -1.000000 99 -0.281830 -0.797236 -1.000000 100 -0.555263 0.126232 -1.000000
核函數代碼以下:
1 # 徑向基核函數(高斯函數) 2 def kernelTrans(X, A, kTup): # X 是樣本集矩陣,A 是樣本對象(矩陣的行向量) , kTup 元組 3 m,n = shape(X) 4 K = mat(zeros((m,1))) 5 # 數據不用核函數計算 6 if kTup [0] == 'lin': K = X * A.T 7 8 # 用徑向基核函數計算 9 elif kTup[0] == 'rbf': 10 for j in range(m): 11 deltaRow = X[j,:] - A 12 K[j] = deltaRow * deltaRow.T 13 K = exp(K/(-1*kTup[1]**2)) 14 # kTup 元組值異常,拋出異常信息 15 else:raise NameError('Houston We Have a Problem --That Kernel is not recognized') 16 return K
測試函數代碼以下:
1 # 訓練樣本集的錯誤率和測試樣本集的錯誤率 2 def testRbf(k1=1.3): 3 dataArr,labelArr = loadDataSet('testSetRBF.txt') # 訓練樣本的提取 4 b,alphas = smoP(dataArr, labelArr, 200, 0.0001, 10000, ('rbf', k1)) # 計算獲得截距和對偶因子 5 datMat=mat(dataArr); labelMat = mat(labelArr).transpose() 6 svInd=nonzero(alphas.A>0)[0] # 對偶因子大於零的值,支持向量的點對應對偶因子 7 sVs=datMat[svInd] 8 labelSV = labelMat[svInd] 9 print "there are %d Support Vectors" % shape(sVs)[0] 10 m,n = shape(datMat) 11 errorCount = 0 12 # 對訓練樣本集的測試 13 for i in range(m): 14 kernelEval = kernelTrans(sVs,datMat[i,:],('rbf', k1)) # 對象 i 的映射值 15 predict=kernelEval.T * multiply(labelSV,alphas[svInd]) + b # 預測值 16 if sign(predict)!=sign(labelArr[i]): errorCount += 1 17 print "the training error rate is: %f" % (float(errorCount)/m) 18 dataArr,labelArr = loadDataSet('testSetRBF2.txt') # 測試樣本集的提取 19 errorCount = 0 20 datMat=mat(dataArr); labelMat = mat(labelArr).transpose() 21 m,n = shape(datMat) 22 # 對測試樣本集的測試 23 for i in range(m): 24 kernelEval = kernelTrans(sVs,datMat[i,:],('rbf', k1)) # 測試樣本對象 i 的映射值 25 predict=kernelEval.T * multiply(labelSV,alphas[svInd]) + b # 預測值 26 if sign(predict)!=sign(labelArr[i]): errorCount += 1 27 print "the test error rate is: %f" % (float(errorCount)/m)
運行結果:
從結果可知,訓練集的錯誤率在3%,測試集的錯誤率在4%,說明支持向量機的分類效果很好。固然在每次運行的結果與圖中的結果不必定相同,由於代碼段中存在隨機選擇對偶因子的狀況,這是沒法避免的,但結果的錯誤率是基本相同的。
到這裏支持向量機算法是講完了,期間花費了我大量時間學習支持向量機的原理和代碼的實現。雖然這部份內容存在必定的難度,但認真地去看每步的由來仍是可以理解的。像我這麼不怎麼聰明的人都能對它說出 1,2,3,4 來,相信你也能夠。我老是這麼認爲,你看懂支持向量機是一回事,可以說出向量機是一回事,把向量機講出來又是另一回事。我如今對支持向量機還有不少半隻不懂的地方,但願之後對它有了新的理解再來修改支持向量機系列的文章。
機器學習之支持向量機(四):支持向量機的Python語言實現
1 #-*- coding=utf-8 -*- 2 import random 3 4 from numpy import * 5 6 # 將文本中的樣本數據添加到列表中 7 def loadDataSet(fileName): 8 dataMat = [] 9 labelMat = [] 10 fr = open(fileName) 11 for line in fr.readlines() : # 對文本按行遍歷 12 lineArr = line.strip().split('\t') 13 dataMat .append([float(lineArr [0]), float(lineArr[1])]) # 每行前兩個是屬性數據,最後一個是類標號 14 labelMat .append(float(lineArr[2])) 15 return dataMat , labelMat 16 17 # 隨機選取對偶因子alpha ,參數i 是alpha 的下標,m 是alpha 的總數 18 def selectJrand(i,m): 19 j = i 20 while (j==i): 21 j = int(random.uniform(0,m)) 22 return j 23 24 # 對所求的對偶因子按約束條件的修剪 25 def clipAlpha(aj, H, L): # H 爲上界,L爲下界 26 if aj > H: 27 aj = H 28 if L > aj: 29 aj = L 30 return aj 31 32 33 class optStruct: 34 def __init__(self,dataMatIn, classLabels, C, toler, kTup): 35 self.X = dataMatIn # 樣本數據 36 self.labelMat = classLabels # 樣本的類標號 37 self.C = C # 對偶因子的上界值 38 self.tol = toler 39 self.m = shape(dataMatIn)[0] # 樣本的行數,即樣本對象的個數 40 self.alphas = mat(zeros((self.m, 1))) # 對偶因子 41 self.b = 0 # 分割函數的截距 42 self.eCache = mat(zeros((self.m, 2))) # 差值矩陣 m * 2,第一列是對象的標誌位 1 表示存在不爲零的差值 0 表示差值爲零,第二列是實際的差值 E 43 self.K = mat(zeros((self.m, self.m))) # 對象通過核函數映射以後的值 44 for i in range(self.m): # 遍歷所有樣本集 45 self.K[:,i] = kernelTrans(self.X, self.X[i,:], kTup ) # 調用徑向基核函數 46 47 48 49 # 預測的類標號值與真實值的差值,參數 oS 是類對象,k 是樣本的對象的標號 50 def calcEk(oS, k): 51 fXk = float(multiply(oS.alphas, oS.labelMat).T * oS.K[:, k] + oS.b) # 公式(1) 52 Ek = fXk - float(oS.labelMat[k]) # 差值 53 return Ek 54 55 56 # 由啓發式選取第二個 alpha,以最大步長爲標準 57 def selectJ(i, oS, Ei): # 函數的參數是選取的第一個 alpha 的對象號、類對象和對象差值 58 maxK = -1; maxDeltaE = 0; Ej = 0 # 第二個 alpha 的初始化 59 oS.eCache[i] = [1,Ei] # 更新差值矩陣的第 i 行 60 validEcacheList = nonzero(oS.eCache[:,0].A)[0] # 取差值矩陣中第一列不爲 0 的全部行數(標誌位爲 1 ),以元組類型返回 61 if (len(validEcacheList)) > 1 : # 62 for k in validEcacheList : # 遍歷全部標誌位爲 1 的對象的差值 63 if k == i: continue 64 Ek = calcEk(oS, k) # 計算對象 k 的差值 65 deltaE = abs(Ei - Ek) # 取兩個差值之差的絕對值 66 if (deltaE > maxDeltaE): # 選取最大的絕對值deltaE 67 maxK = k; maxDeltaE = deltaE; Ej = Ek 68 return maxK, Ej # 返回選取的第二個 alpha 69 else: # 隨機選取第二個 alpha 70 j = selectJrand(i, oS.m) 71 Ej = calcEk(oS,j) 72 return j, Ej # 返回選取的第二個 alpha 73 74 # 更新差值矩陣的數據 75 def updateEk(oS, k): 76 Ek = calcEk(oS, k) # 調用計算差值的函數 77 oS.eCache [k] = [1,Ek] 78 79 80 # 優化選取兩個 alpha ,並計算截距 b 81 def innerL(i, oS): 82 Ei = calcEk(oS, i) # 計算 對象 i 的差值 83 # 第一個 alpha 符合選擇條件進入優化 84 if ((oS.labelMat [i]*Ei <- oS.tol) and (oS.alphas[i] < oS.C)) or ((oS.labelMat [i]*Ei > oS.tol) and (oS.alphas[i] > 0)): 85 j,Ej =selectJ(i, oS, Ei) # 選擇第二個 alpha 86 alphaIold = oS.alphas[i].copy() # 淺拷貝 87 alphaJold = oS.alphas[j].copy() # 淺拷貝 88 89 # 根據對象 i 、j 的類標號(相等或不等)肯定KKT條件的上界和下界 90 if (oS.labelMat[i] != oS.labelMat[j]): 91 L = max(0, oS.alphas [j] - oS.alphas[i]) 92 H = min(oS.C, oS.C + oS.alphas[j] - oS.alphas[i]) 93 else : 94 L = max(0, oS.alphas[j] + oS.alphas [i] - oS.C) 95 H = min(oS.C, oS.alphas [j] + oS.alphas [i]) 96 97 if L==H:print "L==H";return 0 # 不符合優化條件(第二個 alpha) 98 eta = 2.0 * oS.K[i,j] - oS.K[i,i] - oS.K[j,j] # 計算公式的eta ,是公式的相反數 99 if eta >= 0:print "eta>=0";return 0 # 不考慮eta 大於等於 0 的狀況(這種狀況對 alpha 的解是另一種方式,即臨界狀況的求解) 100 # 優化以後的第二個 alpha 值 101 oS.alphas[j] -= oS.labelMat[j]*(Ei - Ej)/eta 102 oS.alphas[j] = clipAlpha(oS.alphas[j], H, L) 103 updateEk(oS, j) # 更新差值矩陣 104 if (abs(oS.alphas[j] - alphaJold) < 0.00001): # 優化以後的 alpha 值與以前的值改變量過小,步長不足 105 print "j not moving enough" 106 return 0 107 oS.alphas[i] += oS.labelMat[j]*oS.labelMat[i]*(alphaJold - oS.alphas[j]) # 優化第二個 alpha 108 updateEk(oS, i) # 更新差值矩陣 109 # 計算截距 b 110 b1 = oS.b - Ei - oS.labelMat[i] * (oS.alphas[i] - alphaIold) * oS.K[i, i] - oS.labelMat[j] * (oS.alphas[j] - alphaJold) * oS.K[i, j] 111 b2 = oS.b - Ej - oS.labelMat[i] * (oS.alphas[i] - alphaIold) * oS.K[i, j] - oS.labelMat[j] * (oS.alphas[j] - alphaJold) * oS.K[j, j] 112 if (0 < oS.alphas [i]) and (oS.C > oS.alphas[i]): 113 oS.b = b1 114 elif (0 < oS.alphas [j]) and (oS.C > oS.alphas [j]): 115 oS.b = b2 116 else : 117 oS.b = (b1 + b2)/2.0 118 return 1 # 進行一次優化 119 else : 120 return 0 121 122 123 # 遍歷全部能優化的 alpha 124 def smoP(dataMatIn, classLabels, C, toler, maxIter, kTup=('lin', 0)): 125 oS = optStruct(mat(dataMatIn), mat(classLabels).transpose(), C, toler, kTup) # 建立一個類對象 oS ,類對象 oS 存放全部數據 126 iter = 0 # 迭代次數的初始化 127 entireSet = True # 違反 KKT 條件的標誌符 128 alphaPairsChanged = 0 # 迭代中優化的次數 129 130 # 從選擇第一個 alpha 開始,優化全部alpha 131 while(iter < maxIter) and ((alphaPairsChanged > 0) or (entireSet )): # 優化的終止條件:在規定迭代次數下,是否遍歷了整個樣本或 alpha 是否優化 132 alphaPairsChanged = 0 133 if entireSet: # 134 for i in range(oS.m): # 遍歷全部對象 135 alphaPairsChanged += innerL(i ,oS) # 調用優化函數(不必定優化) 136 print "fullSet , iter: %d i %d, pairs changed %d" % (iter, i , alphaPairsChanged ) 137 iter += 1 # 迭代次數加 1 138 else: 139 nonBoundIs = nonzero((oS.alphas .A > 0) * (oS.alphas.A < C))[0] 140 for i in nonBoundIs : # 遍歷全部非邊界樣本集 141 alphaPairsChanged += innerL(i, oS) # 調用優化函數(不必定優化) 142 print "non-bound, iter: %d i :%d, pairs changed %d" % (iter, i, alphaPairsChanged ) 143 iter += 1 # 迭代次數加 1 144 if entireSet : # 沒有違反KKT 條件的alpha ,終止迭代 145 entireSet = False 146 elif (alphaPairsChanged == 0): # 存在違反 KKT 的alpha 147 entireSet = True 148 print "iteration number: %d" % iter 149 return oS.b, oS.alphas # 返回截距值和 alphas 150 151 # 徑向基核函數(高斯函數) 152 def kernelTrans(X, A, kTup): # X 是樣本集矩陣,A 是樣本對象(矩陣的行向量) , kTup 元組 153 m,n = shape(X) 154 K = mat(zeros((m,1))) 155 # 數據不用核函數計算 156 if kTup [0] == 'lin': K = X * A.T 157 158 # 用徑向基核函數計算 159 elif kTup[0] == 'rbf': 160 for j in range(m): 161 deltaRow = X[j,:] - A 162 K[j] = deltaRow * deltaRow.T 163 K = exp(K/(-1*kTup[1]**2)) 164 # kTup 元組值異常,拋出異常信息 165 else:raise NameError('Houston We Have a Problem --That Kernel is not recognized') 166 return K 167 168 # 訓練樣本集的錯誤率和測試樣本集的錯誤率 169 def testRbf(k1=1.3): 170 dataArr,labelArr = loadDataSet('testSetRBF.txt') # 訓練樣本的提取 171 b,alphas = smoP(dataArr, labelArr, 200, 0.0001, 10000, ('rbf', k1)) # 計算獲得截距和對偶因子 172 datMat=mat(dataArr); labelMat = mat(labelArr).transpose() 173 svInd=nonzero(alphas.A>0)[0] # 對偶因子大於零的值,支持向量的點對應對偶因子 174 sVs=datMat[svInd] 175 labelSV = labelMat[svInd] 176 print "there are %d Support Vectors" % shape(sVs)[0] 177 m,n = shape(datMat) 178 errorCount = 0 179 # 對訓練樣本集的測試 180 for i in range(m): 181 kernelEval = kernelTrans(sVs,datMat[i,:],('rbf', k1)) # 對象 i 的映射值 182 predict=kernelEval.T * multiply(labelSV,alphas[svInd]) + b # 預測值 183 if sign(predict)!=sign(labelArr[i]): errorCount += 1 184 print "the training error rate is: %f" % (float(errorCount)/m) 185 dataArr,labelArr = loadDataSet('testSetRBF2.txt') # 測試樣本集的提取 186 errorCount = 0 187 datMat=mat(dataArr); labelMat = mat(labelArr).transpose() 188 m,n = shape(datMat) 189 # 對測試樣本集的測試 190 for i in range(m): 191 kernelEval = kernelTrans(sVs,datMat[i,:],('rbf', k1)) # 測試樣本對象 i 的映射值 192 predict=kernelEval.T * multiply(labelSV,alphas[svInd]) + b # 預測值 193 if sign(predict)!=sign(labelArr[i]): errorCount += 1 194 print "the test error rate is: %f" % (float(errorCount)/m) 195 if __name__ == '__main__': 196 197 ''' 198 # 顯示計算的截距值b 和對偶因子 alphas 199 dataMat ,labelMat = loadDataSet('testSet.txt') 200 b, alphas = smoP(dataMat, labelMat , 0.6, 0.11, 40,('rbf',2)) 201 print '------' 202 print b, '----',alphas 203 ''' 204 205 # 支持向量機的測試 206 testRbf()