在本系列前面的文章中,簡單介紹了一下Ignite的線性迴歸算法,下面會嘗試另外一個機器學習算法,即k-最近鄰(k-NN)分類。該算法基於對象k個最近鄰中最多見的類來對對象進行分類,可用於肯定類成員的關係。java
一個適合k-NN分類的數據集是鳶尾花數據集,它能夠很容易地經過UCI網站得到。python
鳶尾花數據集由150個樣本組成,來自3種不一樣種類的鳶尾花各有50朵(Iris Setosa, Iris Versicolour和Iris Virginica)。如下四個特徵可供每一個樣本使用:算法
下面會建立一個模型,利用這四個特徵區分不一樣的物種。app
首先,要獲取原始數據並將其拆分紅訓練數據(60%)和測試數據(40%)。而後再次使用Scikit-learn來執行這個任務,下面修改一下前一篇文章中使用的代碼,以下:dom
from sklearn import datasets import pandas as pd # Load Iris dataset. iris_dataset = datasets.load_iris() x = iris_dataset.data y = iris_dataset.target # Split it into train and test subsets. from sklearn.model_selection import train_test_split x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.4, random_state=23) # Save train set. train_ds = pd.DataFrame(x_train, columns=iris_dataset.feature_names) train_ds["TARGET"] = y_train train_ds.to_csv("iris-train.csv", index=False, header=None) # Save test set. test_ds = pd.DataFrame(x_test, columns=iris_dataset.feature_names) test_ds["TARGET"] = y_test test_ds.to_csv("iris-test.csv", index=False, header=None)
當訓練和測試數據準備好以後,就能夠寫應用了,本文的算法是:機器學習
須要讀取兩個有5列的CSV文件,一個是訓練數據,一個是測試數據,5列分別爲:ide
經過下面的代碼,能夠從CSV文件中讀取數據:學習
private static void loadData(String fileName, IgniteCache<Integer, IrisObservation> cache) throws FileNotFoundException { Scanner scanner = new Scanner(new File(fileName)); int cnt = 0; while (scanner.hasNextLine()) { String row = scanner.nextLine(); String[] cells = row.split(","); double[] features = new double[cells.length - 1]; for (int i = 0; i < cells.length - 1; i++) features[i] = Double.valueOf(cells[i]); double flowerClass = Double.valueOf(cells[cells.length - 1]); cache.put(cnt++, new IrisObservation(features, flowerClass)); } }
該代碼簡單地一行行的讀取數據,而後對於每一行,使用CSV的分隔符拆分出字段,每一個字段以後將轉換成double類型而且存入Ignite。測試
前面的代碼將數據存入Ignite,要使用這個代碼,首先要建立Ignite存儲,以下:網站
IgniteCache<Integer, IrisObservation> trainData = getCache(ignite, "IRIS_TRAIN"); IgniteCache<Integer, IrisObservation> testData = getCache(ignite, "IRIS_TEST"); loadData("src/main/resources/iris-train.csv", trainData); loadData("src/main/resources/iris-test.csv", testData);
getCache()
的實現以下:
private static IgniteCache<Integer, IrisObservation> getCache(Ignite ignite, String cacheName) { CacheConfiguration<Integer, IrisObservation> cacheConfiguration = new CacheConfiguration<>(); cacheConfiguration.setName(cacheName); cacheConfiguration.setAffinity(new RendezvousAffinityFunction(false, 10)); IgniteCache<Integer, IrisObservation> cache = ignite.createCache(cacheConfiguration); return cache; }
數據存儲以後,能夠像下面這樣建立訓練器:
KNNClassificationTrainer trainer = new KNNClassificationTrainer();
而後擬合訓練數據,以下:
KNNClassificationModel mdl = trainer.fit( ignite, trainData, (k, v) -> v.getFeatures(), // Feature extractor. (k, v) -> v.getFlowerClass()) // Label extractor. .withK(3) .withDistanceMeasure(new EuclideanDistance()) .withStrategy(KNNStrategy.WEIGHTED);
Ignite將數據保存爲鍵-值(K-V)格式,所以上面的代碼使用了值部分,目標值是Flower
類,特徵在其它列中。將k的值設爲3,表明3種。對於距離測量,能夠有幾個選擇,如歐幾里德、漢明或曼哈頓,在本例中使用歐幾里德。最後要指定是使用SIMPLE算法仍是使用WEIGHTED k-NN算法,在本例中使用WEIGHTED。
下一步,就能夠用訓練好的分類模型測試測試數據了,能夠這樣作:
int amountOfErrors = 0; int totalAmount = 0; try (QueryCursor<Cache.Entry<Integer, IrisObservation>> cursor = testData.query(new ScanQuery<>())) { for (Cache.Entry<Integer, IrisObservation> testEntry : cursor) { IrisObservation observation = testEntry.getValue(); double groundTruth = observation.getFlowerClass(); double prediction = mdl.apply(new DenseLocalOnHeapVector(observation.getFeatures())); totalAmount++; if (groundTruth != prediction) amountOfErrors++; System.out.printf(">>> | %.0f\t\t\t | %.0f\t\t\t|\n", prediction, groundTruth); } System.out.println(">>> -----------------------------"); System.out.println("\n>>> Absolute amount of errors " + amountOfErrors); System.out.printf("\n>>> Accuracy %.2f\n", (1 - amountOfErrors / (double) totalAmount)); }
下面,就能夠經過對測試數據中的真實分類和模型進行的分類進行對比,來確認模型的真確性。
代碼運行以後,總結以下:
>>> Absolute amount of errors 2 >>> Accuracy 0.97
所以,Ignite可以將97%的測試數據正確地分類爲3個不一樣的種類。
Apache Ignite提供了一個機器學習算法庫。經過k-NN分類示例,能夠看到建立模型、測試模型和肯定準確性的簡單性。
在機器學習系列的下一篇中,將研究另外一種機器學習算法。敬請期待!