一.前述python
密度聚類是一種能降噪的算法。不少時候用在聚類形狀不規則的狀況下。算法
二.相關概念dom
先看些抽象的概念(官方定義):spa
1.:對象O的是與O爲中心,
爲半徑的空間,參數
,是用戶指定每一個對象的領域半徑值。3d
2.MinPts(領域密度閥值):對象的的對象數量。code
3.核心對象:若是對象O的對象數量至少包含MinPts個對象,則該對象是核心對象。orm
4.直接密度可達:若是對象p在覈心對象q的內,則p是從q直接密度可達的。對象
5.密度可達:在DBSCAN中,p是從q(核心對象)密度可達的,若是存在對象鏈,使得,
是
從關於
和MinPts直接密度可達的,即
在
的blog
內,則
到
密度可達。ip
6.密度相連:若是存在對象,使得對象
都是從q關於和MinPts密度可達的,則稱
是關於
和MinPts密度相連的。
PS:是否是很抽象 ,因此官方定義永遠是官方定義確實理解不了。而後再看些非官方定義,其實就大概明白了。
先上圖:
解釋下:這裏有幾個關鍵的概念。
領域其實就是某一個半徑內,假設半徑爲5,咱們先看P點以半徑爲5畫的圓中包含3個點,而q點以半徑爲5畫7個點 7>5,因此q就叫作核心對象。q不是核心對象。理解就是這麼簡單,再看看什麼叫密度可達,見下圖:
0點以半徑爲5畫圓與p點以半徑爲5畫圓有交集,即O點以半徑爲5的領域內有以P爲中心店半徑爲5的領域內的點,則O密度可達P,O也密度可達q(在邊界交點也算)。
從o點能密度可達p,也能密度可達q,則p,q叫密度相連。
再好比:
q密度可達p1,p1密度可達p,則q密度可達p(間接的也是密度可達)!!!!
這裏須要兩個參數注意下:r半徑,m閾值,即以r爲半徑內所包含的點,只有大於m閾值的點才能叫核心對象。
以上理解了這些概念,但跟聚類有什麼相連,實際上簇就是密度相連的最大的集合。即一個簇就是最大的密度相連的集合。
若是一個點不是核心對象,也就意味着不能密度可達,因此就是噪聲點。(通俗理解就是一個點都不能畫圓,怎麼會有密度可達呢?)
好比下圖:
就是噪聲點。
PS:總結下規律:
給定的m不夠簇就會變多,好比下圖:m分別是5,3,2
解釋:當是5的時候,圈紅的邊緣點不是核心對象,因此不能畫圓,因此不會密度可達。當是2的時候,半徑內的值大於閾值因此是核心對象,那麼這堆數據有可能密度相連,造成一個簇。這也就是簇變多的緣由。
代碼:
# !/usr/bin/python # -*- coding:utf-8 -*- import numpy as np import matplotlib.pyplot as plt import sklearn.datasets as ds import matplotlib.colors from sklearn.cluster import DBSCAN from sklearn.preprocessing import StandardScaler def expand(a, b): d = (b - a) * 0.1 return a-d, b+d if __name__ == "__main__": N = 1000 centers = [[1, 2], [-1, -1], [1, -1], [-1, 1]] data, y = ds.make_blobs(N, n_features=2, centers=centers, cluster_std=[0.5, 0.25, 0.7, 0.5], random_state=0) data = StandardScaler().fit_transform(data) # 數據的參數:(epsilon, min_sample) params = ((0.2, 5), (0.2, 10), (0.2, 15), (0.3, 5), (0.3, 10), (0.3, 15)) matplotlib.rcParams['font.sans-serif'] = [u'SimHei'] matplotlib.rcParams['axes.unicode_minus'] = False plt.figure(figsize=(12, 8), facecolor='w') plt.suptitle(u'DBSCAN聚類', fontsize=20) for i in range(6): eps, min_samples = params[i] model = DBSCAN(eps=eps, min_samples=min_samples) model.fit(data) y_hat = model.labels_ core_indices = np.zeros_like(y_hat, dtype=bool) core_indices[model.core_sample_indices_] = True y_unique = np.unique(y_hat) n_clusters = y_unique.size - (1 if -1 in y_hat else 0) print(y_unique, '聚類簇的個數爲:', n_clusters) plt.subplot(2, 3, i+1) clrs = plt.cm.Spectral(np.linspace(0, 0.8, y_unique.size)) print(clrs) for k, clr in zip(y_unique, clrs): cur = (y_hat == k) if k == -1: plt.scatter(data[cur, 0], data[cur, 1], s=20, c='k') continue plt.scatter(data[cur, 0], data[cur, 1], s=30, c=clr, edgecolors='k') plt.scatter(data[cur & core_indices][:, 0], data[cur & core_indices][:, 1], s=60, c=clr, marker='o', edgecolors='k') x1_min, x2_min = np.min(data, axis=0) x1_max, x2_max = np.max(data, axis=0) x1_min, x1_max = expand(x1_min, x1_max) x2_min, x2_max = expand(x2_min, x2_max) plt.xlim((x1_min, x1_max)) plt.ylim((x2_min, x2_max)) plt.grid(True) plt.title(u'epsilon = %.1f m = %d,聚類數目:%d' % (eps, min_samples, n_clusters), fontsize=16) plt.tight_layout() plt.subplots_adjust(top=0.9) plt.show()
r半徑太大就會聚類到一塊兒:以下圖
因此Finally總結:要大一塊兒大,要小一塊兒小,參數這是最合適的。好比2,6圖是合適的,4個簇。
未完待續,持續更新中。。。。。。。。。。。。