變換後各維特徵有0均值,單位方差。也叫z-score規範化(零均值規範化)。計算方式是將特徵值減去均值,除以標準差。算法
from sklearn.preprocessing import scale
X = np.array([[ 1., -1., 2.],[ 2., 0., 0.],[ 0., 1., -1.]])
scale(X)
通常會把train和test集放在一塊兒作標準化,或者在train集上作標準化後,用一樣的標準化器去標準化test集,此時能夠用scaler機器學習
from sklearn.preprocessing import StandardScaler
scaler = StandardScaler().fit(train)
scaler.transform(train)
scaler.transform(test)
最小-最大規範化對原始數據進行線性變換,變換到[0,1]區間(也能夠是其餘固定最小最大值的區間)學習
min_max_scaler = sklearn.preprocessing.MinMaxScaler()
min_max_scaler.fit_transform(X_train)
規範化是將不一樣變化範圍的值映射到相同的固定範圍,常見的是[0,1],此時也稱爲歸一化。《機器學習》周志華編碼
X = [[ 1, -1, 2],[ 2, 0, 0], [ 0, 1, -1]]
sklearn.preprocessing.normalize(X, norm='l2')
array([[ 0.40, -0.40, 0.81], [ 1, 0, 0], [ 0, 0.70, -0.70]])
能夠發現對於每個樣本都有,0.4^2+0.4^2+0.81^2=1,這就是L2 norm,變換後每一個樣本的各維特徵的平方和爲1。相似地,L1 norm則是變換後每一個樣本的各維特徵的絕對值和爲1。還有max norm,則是將每一個樣本的各維特徵除以該樣本各維特徵的最大值。
在度量樣本之間類似性時,若是使用的是二次型kernel,須要作Normalizationspa
給定閾值,將特徵轉換爲0/1code
binarizer = sklearn.preprocessing.Binarizer(threshold=1.1)
binarizer.transform(X)
from sklearn import preprocessing
lb = preprocessing.LabelBinarizer()
lb.fit([1, 2, 6, 4, 2])
lb.classes_
array([1, 2, 4, 6])
lb.transform([1, 6])#必須[1, 2, 6, 4, 2]裏面
array([[1, 0, 0, 0],
[0, 0, 0, 1]])
有時候特徵是類別型的,而一些算法的輸入必須是數值型,此時須要對其編碼。
下面這個例子,第一維特徵有兩種值0和1,用兩位去編碼。第二維用三位,第三維用四位。orm
enc = preprocessing.OneHotEncoder()
enc.fit([[0, 0, 3], [1, 1, 0], [0, 2, 1], [1, 0, 2]])
enc.transform([[0, 1, 3]]).toarray() #array([[ 1., 0., 0., 1., 0., 0., 0., 0., 1.]])
le = sklearn.preprocessing.LabelEncoder()
le.fit([1, 2, 2, 6])
le.transform([1, 1, 2, 6]) #array([0, 0, 1, 2])
#非數值型轉化爲數值型
le.fit(["paris", "paris", "tokyo", "amsterdam"])
le.transform(["tokyo", "tokyo", "paris"]) #array([2, 2, 1])
sklearn.preprocessing.robust_scale
這個其實涉及到特徵工程了,多項式特徵/交叉特徵it
原始特徵
io
轉化後
form
poly = sklearn.preprocessing.PolynomialFeatures(2)
poly.fit_transform(X)