在學習機器學習算法的過程當中,咱們常常須要數據來驗證算法,調試參數。可是找到一組十分合適某種特定算法類型的數據樣本卻不那麼容易。還好numpy, scikit-learn都提供了隨機數據生成的功能,咱們能夠本身生成適合某一種模型的數據,用隨機數據來作清洗,歸一化,轉換,而後選擇模型與算法作擬合和預測。下面對scikit-learn和numpy生成數據樣本的方法作一個總結。git
完整代碼參見個人github。github
numpy比較適合用來生產一些簡單的抽樣數據。API都在random類中,常見的API有:算法
1) rand(d0, d1, ..., dn) 用來生成d0xd1x...dn維的數組。數組的值在[0,1)之間數組
例如:np.random.rand(3,2,2),輸出以下3x2x2的數組dom
array([[[ 0.49042678, 0.60643763],
[ 0.18370487, 0.10836908]],
[[ 0.38269728, 0.66130293],
[ 0.5775944 , 0.52354981]],
[[ 0.71705929, 0.89453574],
[ 0.36245334, 0.37545211]]]) 機器學習
2) randn((d0, d1, ..., dn), 也是用來生成d0xd1x...dn維的數組。不過數組的值服從N(0,1)的標準正態分佈。學習
例如:np.random.randn(3,2),輸出以下3x2的數組,這些值是N(0,1)的抽樣數據。spa
array([[-0.5889483 , -0.34054626],
[-2.03094528, -0.21205145],
[-0.20804811, -0.97289898]])3d
若是須要服從$N(\mu,\sigma^2)$的正態分佈,只須要在randn上每一個生成的值x上作變換$\sigma x + \mu $便可,例如:調試
例如:2*np.random.randn(3,2) + 1,輸出以下3x2的數組,這些值是N(1,4)的抽樣數據。
array([[ 2.32910328, -0.677016 ],
[-0.09049511, 1.04687598],
[ 2.13493001, 3.30025852]])
3)randint(low[, high, size]),生成隨機的大小爲size的數據,size能夠爲整數,爲矩陣維數,或者張量的維數。值位於半開區間 [low, high)。
例如:np.random.randint(3, size=[2,3,4])返回維數爲2x3x4的數據。取值範圍爲最大值爲3的整數。
array([[[2, 1, 2, 1],
[0, 1, 2, 1],
[2, 1, 0, 2]],
[[0, 1, 0, 0],
[1, 1, 2, 1],
[1, 0, 1, 2]]])
再好比: np.random.randint(3, 6, size=[2,3]) 返回維數爲2x3的數據。取值範圍爲[3,6).
array([[4, 5, 3],
[3, 4, 5]])
4) random_integers(low[, high, size]),和上面的randint相似,區別在與取值範圍是閉區間[low, high]。
5) random_sample([size]), 返回隨機的浮點數,在半開區間 [0.0, 1.0)。若是是其餘區間[a,b),能夠加以轉換(b - a) * random_sample([size]) + a
例如: (5-2)*np.random.random_sample(3)+2 返回[2,5)之間的3個隨機數。
array([ 2.87037573, 4.33790491, 2.1662832 ])
scikit-learn生成隨機數據的API都在datasets類之中,和numpy比起來,能夠用來生成適合特定機器學習模型的數據。經常使用的API有:
1) 用make_regression 生成迴歸模型的數據
2) 用make_hastie_10_2,make_classification或者make_multilabel_classification生成分類模型數據
3) 用make_blobs生成聚類模型數據
4) 用make_gaussian_quantiles生成分組多維正態分佈的數據
這裏咱們使用make_regression生成迴歸模型數據。幾個關鍵參數有n_samples(生成樣本數), n_features(樣本特徵數),noise(樣本隨機噪音)和coef(是否返回迴歸係數)。例子代碼以下:
import numpy as np import matplotlib.pyplot as plt %matplotlib inline from sklearn.datasets.samples_generator import make_regression # X爲樣本特徵,y爲樣本輸出, coef爲迴歸係數,共1000個樣本,每一個樣本1個特徵 X, y, coef =make_regression(n_samples=1000, n_features=1,noise=10, coef=True) # 畫圖 plt.scatter(X, y, color='black') plt.plot(X, X*coef, color='blue', linewidth=3) plt.xticks(()) plt.yticks(()) plt.show()
輸出的圖以下:
這裏咱們用make_classification生成三元分類模型數據。幾個關鍵參數有n_samples(生成樣本數), n_features(樣本特徵數), n_redundant(冗餘特徵數)和n_classes(輸出的類別數),例子代碼以下:
import numpy as np import matplotlib.pyplot as plt %matplotlib inline from sklearn.datasets.samples_generator import make_classification # X1爲樣本特徵,Y1爲樣本類別輸出, 共400個樣本,每一個樣本2個特徵,輸出有3個類別,沒有冗餘特徵,每一個類別一個簇 X1, Y1 = make_classification(n_samples=400, n_features=2, n_redundant=0, n_clusters_per_class=1, n_classes=3) plt.scatter(X1[:, 0], X1[:, 1], marker='o', c=Y1) plt.show()
輸出的圖以下:
這裏咱們用make_blobs生成聚類模型數據。幾個關鍵參數有n_samples(生成樣本數), n_features(樣本特徵數),centers(簇中心的個數或者自定義的簇中心)和cluster_std(簇數據方差,表明簇的聚合程度)。例子以下:
import numpy as np import matplotlib.pyplot as plt %matplotlib inline from sklearn.datasets.samples_generator import make_blobs # X爲樣本特徵,Y爲樣本簇類別, 共1000個樣本,每一個樣本2個特徵,共3個簇,簇中心在[-1,-1], [1,1], [2,2], 簇方差分別爲[0.4, 0.5, 0.2] X, y = make_blobs(n_samples=1000, n_features=2, centers=[[-1,-1], [1,1], [2,2]], cluster_std=[0.4, 0.5, 0.2]) plt.scatter(X[:, 0], X[:, 1], marker='o', c=y) plt.show()
輸出的圖以下:
咱們用make_gaussian_quantiles生成分組多維正態分佈的數據。幾個關鍵參數有n_samples(生成樣本數), n_features(正態分佈的維數),mean(特徵均值), cov(樣本協方差的係數), n_classes(數據在正態分佈中按分位數分配的組數)。 例子以下:
import numpy as np import matplotlib.pyplot as plt %matplotlib inline from sklearn.datasets import make_gaussian_quantiles #生成2維正態分佈,生成的數據按分位數分紅3組,1000個樣本,2個樣本特徵均值爲1和2,協方差係數爲2 X1, Y1 = make_gaussian_quantiles(n_samples=1000, n_features=2, n_classes=3, mean=[1,2],cov=2) plt.scatter(X1[:, 0], X1[:, 1], marker='o', c=Y1)
輸出圖以下
以上就是生產隨機數據的一個總結,但願能夠幫到學習機器學習算法的朋友們。
(歡迎轉載,轉載請註明出處。歡迎溝通交流: liujianping-ok@163.com)