【機器學習】---密度聚類從初識到應用

一.前述python

密度聚類是一種能降噪的算法。不少時候用在聚類形狀不規則的狀況下。算法

二.相關概念dom

先看些抽象的概念(官方定義)spa

1.:對象O的是與O爲中心,爲半徑的空間,參數,是用戶指定每一個對象的領域半徑值。3d

2.MinPts(領域密度閥值):對象的的對象數量。code

3.核心對象:若是對象O的對象數量至少包含MinPts個對象,則該對象是核心對象。orm

4.直接密度可達:若是對象p在覈心對象q的內,則p是從q直接密度可達的。對象

5.密度可達:在DBSCAN中,p是從q(核心對象)密度可達的,若是存在對象鏈,使得,從關於和MinPts直接密度可達的,即blog

內,則密度可達。ip

6.密度相連:若是存在對象,使得對象都是從q關於和MinPts密度可達的,則稱是關於和MinPts密度相連的。

PS:是否是很抽象 ,因此官方定義永遠是官方定義確實理解不了。而後再看些非官方定義,其實就大概明白了。

先上圖:

解釋下:這裏有幾個關鍵的概念。

領域其實就是某一個半徑內,假設半徑爲5,咱們先看P點以半徑爲5畫的圓中包含3個點,而q點以半徑爲5畫7個點  7>5,因此q就叫作核心對象。q不是核心對象。理解就是這麼簡單,再看看什麼叫密度可達,見下圖:

0點以半徑爲5畫圓與p點以半徑爲5畫圓有交集,即O點以半徑爲5的領域內以P爲中心店半徑爲5的領域內的點,則O密度可達P,O也密度可達q(在邊界交點也算)。

從o點能密度可達p,也能密度可達q,則p,q叫密度相連。

再好比:

q密度可達p1,p1密度可達p,則q密度可達p(間接的也是密度可達)!!!!

這裏須要兩個參數注意下:r半徑,m閾值,即以r爲半徑內所包含的點,只有大於m閾值的點才能叫核心對象。

 以上理解了這些概念,但跟聚類有什麼相連,實際上簇就是密度相連的最大的集合。即一個簇就是最大的密度相連的集合。

若是一個點不是核心對象,也就意味着不能密度可達,因此就是噪聲點。(通俗理解就是一個點都不能畫圓,怎麼會有密度可達呢?)

好比下圖:

就是噪聲點。

PS:總結下規律:

給定的m不夠簇就會變多,好比下圖:m分別是5,3,2

 

解釋:當是5的時候,圈紅的邊緣點不是核心對象,因此不能畫圓,因此不會密度可達。當是2的時候,半徑內的值大於閾值因此是核心對象,那麼這堆數據有可能密度相連,造成一個簇。這也就是簇變多的緣由。

代碼:

 

# !/usr/bin/python
# -*- coding:utf-8 -*-

import numpy as np
import matplotlib.pyplot as plt
import sklearn.datasets as ds
import matplotlib.colors
from sklearn.cluster import DBSCAN
from sklearn.preprocessing import StandardScaler


def expand(a, b):
    d = (b - a) * 0.1
    return a-d, b+d


if __name__ == "__main__":
    N = 1000
    centers = [[1, 2], [-1, -1], [1, -1], [-1, 1]]
    data, y = ds.make_blobs(N, n_features=2, centers=centers, cluster_std=[0.5, 0.25, 0.7, 0.5], random_state=0)
    data = StandardScaler().fit_transform(data)
    # 數據的參數:(epsilon, min_sample)
    params = ((0.2, 5), (0.2, 10), (0.2, 15), (0.3, 5), (0.3, 10), (0.3, 15))

    matplotlib.rcParams['font.sans-serif'] = [u'SimHei']
    matplotlib.rcParams['axes.unicode_minus'] = False

    plt.figure(figsize=(12, 8), facecolor='w')
    plt.suptitle(u'DBSCAN聚類', fontsize=20)

    for i in range(6):
        eps, min_samples = params[i]
        model = DBSCAN(eps=eps, min_samples=min_samples)
        model.fit(data)
        y_hat = model.labels_

        core_indices = np.zeros_like(y_hat, dtype=bool)
        core_indices[model.core_sample_indices_] = True

        y_unique = np.unique(y_hat)
        n_clusters = y_unique.size - (1 if -1 in y_hat else 0)
        print(y_unique, '聚類簇的個數爲:', n_clusters)

        plt.subplot(2, 3, i+1)
        clrs = plt.cm.Spectral(np.linspace(0, 0.8, y_unique.size))
        print(clrs)
        for k, clr in zip(y_unique, clrs):
            cur = (y_hat == k)
            if k == -1:
                plt.scatter(data[cur, 0], data[cur, 1], s=20, c='k')
                continue
            plt.scatter(data[cur, 0], data[cur, 1], s=30, c=clr, edgecolors='k')
            plt.scatter(data[cur & core_indices][:, 0], data[cur & core_indices][:, 1], s=60, c=clr, marker='o', edgecolors='k')
        x1_min, x2_min = np.min(data, axis=0)
        x1_max, x2_max = np.max(data, axis=0)
        x1_min, x1_max = expand(x1_min, x1_max)
        x2_min, x2_max = expand(x2_min, x2_max)
        plt.xlim((x1_min, x1_max))
        plt.ylim((x2_min, x2_max))
        plt.grid(True)
        plt.title(u'epsilon = %.1f  m = %d,聚類數目:%d' % (eps, min_samples, n_clusters), fontsize=16)
    plt.tight_layout()
    plt.subplots_adjust(top=0.9)
    plt.show()

 

 

 

r半徑太大就會聚類到一塊兒:以下圖

 

 因此Finally總結:要大一塊兒大,要小一塊兒小,參數這是最合適的。好比2,6圖是合適的,4個簇。

 未完待續,持續更新中。。。。。。。。。。。。

相關文章
相關標籤/搜索