近來因爲數據記錄和屬性規模的急劇增加,大數據處理平臺和並行數據分析算法也隨之出現。於此同時,這也推進了數據降維處理的應用。實際上,數據量有時過猶不及。有時在數據分析應用中大量的數據反而會產生更壞的性能。ios
最新的一個例子是採用 2009 KDD Challenge 大數據集來預測客戶流失量。 該數據集維度達到 15000 維。 大多數數據挖掘算法都直接對數據逐列處理,在數據數目一大時,致使算法愈來愈慢。該項目的最重要的就是在減小數據列數的同時保證丟失的數據信息儘量少。算法
以該項目爲例,咱們開始來探討在當前數據分析領域中最爲數據分析人員稱道和接受的數據降維方法。網絡
缺失值比率 (Missing Values Ratio)dom
該方法的是基於包含太多缺失值的數據列包含有用信息的可能性較少。所以,能夠將數據列缺失值大於某個閾值的列去掉。閾值越高,降維方法更爲積極,即降維越少。該方法示意圖以下:機器學習
低方差濾波 (Low Variance Filter)性能
與上個方法類似,該方法假設數據列變化很是小的列包含的信息量少。所以,全部的數據列方差小的列被移除。須要注意的一點是:方差與數據範圍相關的,所以在採用該方法前須要對數據作歸一化處理。算法示意圖以下:學習
高相關濾波 (High Correlation Filter)測試
高相關濾波認爲當兩列數據變化趨勢類似時,它們包含的信息也顯示。這樣,使用類似列中的一列就能夠知足機器學習模型。對於數值列之間的類似性經過計算相關係數來表示,對於名詞類列的相關係數能夠經過計算皮爾遜卡方值來表示。相關係數大於某個閾值的兩列只保留一列。一樣要注意的是:相關係數對範圍敏感,因此在計算以前也須要對數據進行歸一化處理。算法示意圖以下:大數據
隨機森林/組合樹 (Random Forests)優化
組合決策樹一般又被成爲隨機森林,它在進行特徵選擇與構建有效的分類器時很是有用。一種經常使用的降維方法是對目標屬性產生許多巨大的樹,而後根據對每一個屬性的統計結果找到信息量最大的特徵子集。例如,咱們可以對一個很是巨大的數據集生成很是層次很是淺的樹,每顆樹只訓練一小部分屬性。若是一個屬性常常成爲最佳分裂屬性,那麼它頗有多是須要保留的信息特徵。對隨機森林數據屬性的統計評分會向咱們揭示與其它屬性相比,哪一個屬性纔是預測能力最好的屬性。算法示意圖以下:
主成分分析 (PCA)
主成分分析是一個統計過程,該過程經過正交變換將原始的 n 維數據集變換到一個新的被稱作主成分的數據集中。變換後的結果中,第一個主成分具備最大的方差值,每一個後續的成分在與前述主成分正交條件限制下與具備最大方差。降維時僅保存前 m(m < n) 個主成分便可保持最大的數據信息量。須要注意的是主成分變換對正交向量的尺度敏感。數據在變換前須要進行歸一化處理。一樣也須要注意的是,新的主成分並非由實際系統產生的,所以在進行 PCA 變換後會喪失數據的解釋性。若是說,數據的解釋能力對你的分析來講很重要,那麼 PCA 對你來講可能就不適用了。算法示意圖以下:
反向特徵消除 (Backward Feature Elimination)
在該方法中,全部分類算法先用 n 個特徵進行訓練。每次降維操做,採用 n-1 個特徵對分類器訓練 n 次,獲得新的 n 個分類器。將新分類器中錯分率變化最小的分類器所用的 n-1 維特徵做爲降維後的特徵集。不斷的對該過程進行迭代,便可獲得降維後的結果。第k 次迭代過程當中獲得的是 n-k 維特徵分類器。經過選擇最大的錯誤容忍率,咱們能夠獲得在選擇分類器上達到指定分類性能最小須要多少個特徵。算法示意圖以下:
前向特徵構造 (Forward Feature Construction)
前向特徵構建是反向特徵消除的反過程。在前向特徵過程當中,咱們從 1 個特徵開始,每次訓練添加一個讓分類器性能提高最大的特徵。前向特徵構造和反向特徵消除都十分耗時。它們一般用於輸入維數已經相對較低的數據集。算法示意圖以下:
咱們選擇 2009 KDD chanllenge 的削數據集來對這些降維技術在降維率、準確度損失率以及計算速度方面進行比較。固然,最後的準確度與損失率也與選擇的數據分析模型有關。所以,最後的降維率與準確度的比較是在三種模型中進行,這三種模型分別是:決策樹,神經網絡與樸素貝葉斯。
經過運行優化循環,最佳循環終止意味着低緯度與高準確率取決於七大降維方法與最佳分類模型。最後的最佳模型的性能經過採用全部特徵進行訓練模型的基準準確度與 ROC 曲線下的面積來進行比較。下面是對全部比較結果的對比。
從上表中的對比可知,數據降維算法不只僅是可以提升算法執行的速度,同時也能過提升分析模型的性能。 在對數據集採用:缺失值降維、低方差濾波,高相關濾波或者隨機森林降維時,表中的 AoC 在測試數據集上有小幅度的增加。
確實在大數據時代,數據越多越好彷佛已經成爲公理。咱們再次解釋了當數據數據集寶航過多的數據噪聲時,算法的性能會致使算法的性能達不到預期。移除信息量較少甚至無效信息惟獨可能會幫助咱們構建更具擴展性、通用性的數據模型。該數據模型在新數據集上的表現可能會更好。
最近,咱們諮詢了 LinkedIn 的一個數據分析小組在數據分析中最爲經常使用的數據降維方法,除了本博客中提到的其中,還包括:隨機投影(Random Projections)、非負矩陣分解(N0n-negative Matrix Factorization),自動編碼(Auto-encoders),卡方檢測與信息增益(Chi-square and information gain), 多維標定(Multidimensional Scaling), 相關性分析(Coorespondence Analysis), 因子分析(Factor Analysis)、聚類(Clustering)以及貝葉斯模型(Bayesian Models)。感謝 Asterios Stergioudis, Raoul Savos 以及 Michael Will 在 LinkedIN 小組中提供意見。