數據的清洗

數據清洗一是爲了解決數據質量問題,二是讓數據更加適合做挖掘

一、解決數據質量問題

數據的完整性,比如人的屬性中缺少性別、籍貫、年齡等

數據的唯一性,比如不同來源的數據出現重複的情況

數據的權威性,比如同一個指標出現多個來源的數據,且數值不一樣

數據的合法性,比如數據與常識不符,市區內開車速度到達了400km/h

數據的一致性,比如不同來源的不同指標,實際的內涵與表示意義是一樣的

數據清洗的結果是對各種髒數據進行對應標準的乾淨的、連續的數據,提供給數據統計、數據挖掘等使用。

1、數據完整性問題

解決思路:數據補全

(1)通過其他信息補全,比如通過身份證號碼推算性別、籍貫、出生日期、年齡等

(2)通過前後數據補全,例如時間序列確實,可以使用前後的均值填充,缺的數據多了,可以使用平滑處理

(3)實在補不全的,必須剔除,但是不要刪除,說不定以後用得上

2、數據唯一性問題

解決思路:去除重複記錄,只保留一條

(1)按照主鍵去重,用sql或者excel去除重複記錄即可

(2)按照規則去重,編寫一系列規則,對重複情況負責的數據去重,例如不同渠道來的客戶數據,可以通過相同的關鍵信息進行匹配,合併去重

3、數據權威性問題

解決思路:用最權威那個渠道的數據

對不同渠道設定權威級別,然後再不同場合下選最重要的

4、數據合法性問題

解決思路:設定判定規則

(1)設定強制合法規則,凡事不在規則範圍內的,強制設置最大值以及最小值,剔除或者判斷爲無效

字段類型合法規則:日期字段格式過濾

字段內容合法規則:性別 in(男、女、未知));出生日期《=今天

(2)設定警告規則,凡是不在規則範圍內的,進行警告然後人工處理

(3)離羣值人工特殊處理,使用分箱、聚類、迴歸等方式發現離羣值

5、結局數據一致性問題

解決思路:簡歷數據體系

(1)指標體系(度量)

(2)維度(分組、統計口徑)

(3)單位

(4)頻度

(5)數據

二、讓數據更適合做挖掘或者展示

高緯度-不適合挖掘

低緯度-不適合挖掘

無關信息-減少存儲

字段冗餘-一個字段是其他字段計算出來的,會操成相關係數爲1或者主成分分析異常

多指標數據、單位不同-如GDP與城鎮居民人居收入數值相差過大

1、解決高緯度問題

解決思路:降維

(1)主成分分析

(2)隨機森林

2、解決低緯度或者缺少維度

解決思路:抽象

(1)各種彙總、平均、加總、最大、最小等

(2)各種離散化、聚類、自定義分組等

3、解決無關信息和字段冗餘

解決思路:剔除字段

4、解決多指標數值、單位不同問題

解決思路:歸一化

(1)最小-最大

(2)0-均值

(3)小數定標

三、標準流程

 

數據清洗標準流程

預處理階段

預處理階段主要做兩件事情:

一是將數據導入處理工具。通常來說,建議使用數據庫,單機跑數搭建MySQL環境即可。如果數據量大(千萬級以上),可以使用文本文件存儲+Python操作的方式。

二是看數據。這裏包含兩個部分:一是看元數據,包括字段解釋、數據來源、代碼表等等一切描述數據的信息;二是抽取一部分數據,使用人工查看方式,對數據本身有一個直觀的瞭解,並且初步發現一些問題,爲之後的處理做準備。

第一步:缺失值清洗

缺失值是最常見的數據問題,處理缺失值也有很多方法,我建議按照以下四個步驟進行:

1、確定缺失值範圍:對每個字段都計算其缺失值比例,然後按照缺失比例和字段重要性,分別制定策略,可用下圖表示:

2、去除不需要的字段:這一步很簡單,直接刪掉即可……但強烈建議清洗每做一步都備份一下,或者在小規模數據上試驗成功再處理全量數據,不然刪錯了會追悔莫及(多說一句,寫SQL的時候delete一定要配where!)。

 

 

3、填充缺失內容:某些缺失值可以進行填充,方法有以下三種:

以業務知識或經驗推測填充缺失值

以同一指標的計算結果(均值、中位數、衆數等)填充缺失值

以不同指標的計算結果填充缺失值

前兩種方法比較好理解。關於第三種方法,舉個最簡單的例子:年齡字段缺失,但是有屏蔽後六位的身份證號,so……

4、重新取數:如果某些指標非常重要又缺失率高,那就需要和取數人員或業務人員瞭解,是否有其他渠道可以取到相關數據。

以上,簡單的梳理了缺失值清洗的步驟,但其中有一些內容遠比我說的複雜,比如填充缺失值。很多講統計方法或統計工具的書籍會提到相關方法,有興趣的各位可以自行深入瞭解。

第二步:格式內容清洗

如果數據是由系統日誌而來,那麼通常在格式和內容方面,會與元數據的描述一致。而如果數據是由人工收集或用戶填寫而來,則有很大可能性在格式和內容上存在一些問題,簡單來說,格式內容問題有以下幾類:

1、時間、日期、數值、全半角等顯示格式不一致

這種問題通常與輸入端有關,在整合多來源數據時也有可能遇到,將其處理成一致的某種格式即可。

2、內容中有不該存在的字符

某些內容可能只包括一部分字符,比如身份證號是數字+字母,中國人姓名是漢字(趙C這種情況還是少數)。最典型的就是頭、尾、中間的空格,也可能出現姓名中存在數字符號、身份證號中出現漢字等問題。這種情況下,需要以半自動校驗半人工方式來找出可能存在的問題,並去除不需要的字符。

3、內容與該字段應有內容不符

姓名寫了性別,身份證號寫了手機號等等,均屬這種問題。 但該問題特殊性在於:並不能簡單的以刪除來處理,因爲成因有可能是人工填寫錯誤,也有可能是前端沒有校驗,還有可能是導入數據時部分或全部存在列沒有對齊的問題,因此要詳細識別問題類型。

格式內容問題是比較細節的問題,但很多分析失誤都是栽在這個坑上,比如跨表關聯或VLOOKUP失敗(多個空格導致工具認爲「陳丹奕」和「陳 丹奕」不是一個人)、統計值不全(數字裏摻個字母當然求和時結果有問題)、模型輸出失敗或效果不好(數據對錯列了,把日期和年齡混了,so……)。因此,請各位務必注意這部分清洗工作,尤其是在處理的數據是人工收集而來,或者你確定產品前端校驗設計不太好的時候……

第三步:邏輯錯誤清洗

這部分的工作是去掉一些使用簡單邏輯推理就可以直接發現問題的數據,防止分析結果走偏。主要包含以下幾個步驟:

1、去重

有的分析師喜歡把去重放在第一步,但我強烈建議把去重放在格式內容清洗之後,原因已經說過了(多個空格導致工具認爲「陳丹奕」和「陳 丹奕」不是一個人,去重失敗)。而且,並不是所有的重複都能這麼簡單的去掉……

我曾經做過電話銷售相關的數據分析,發現銷售們爲了搶單簡直無所不用其極……舉例,一家公司叫做「ABC管家有限公司「,在銷售A手裏,然後銷售B爲了搶這個客戶,在系統裏錄入一個」ABC官家有限公司「。你看,不仔細看你都看不出兩者的區別,而且就算看出來了,你能保證沒有」ABC官家有限公司「這種東西的存在麼……這種時候,要麼去抱RD大腿要求人家給你寫模糊匹配算法,要麼肉眼看吧。

上邊這個還不是最狠的,請看下圖:

你用的系統裏很有可能兩條路都叫八里莊路,敢直接去重不?(附送去重小tips:兩個八里莊路的門牌號範圍不一樣)

 

 

當然,如果數據不是人工錄入的,那麼簡單去重即可。

2、去除不合理值

一句話就能說清楚:有人填表時候瞎填,年齡200歲,年收入100000萬(估計是沒看見」萬「字),這種的就要麼刪掉,要麼按缺失值處理。這種值如何發現?提示:可用但不限於箱形圖(Box-plot).

3、修正矛盾內容

有些字段是可以互相驗證的,舉例:身份證號是1101031980XXXXXXXX,然後年齡填18歲,我們雖然理解人家永遠18歲的想法,但得知真實年齡可以給用戶提供更好的服務啊(又瞎扯……)。在這種時候,需要根據字段的數據來源,來判定哪個字段提供的信息更爲可靠,去除或重構不可靠的字段。

邏輯錯誤除了以上列舉的情況,還有很多未列舉的情況,在實際操作中要酌情處理。另外,這一步驟在之後的數據分析建模過程中有可能重複,因爲即使問題很簡單,也並非所有問題都能夠一次找出,我們能做的是使用工具和方法,儘量減少問題出現的可能性,使分析過程更爲高效。

第四步:非需求數據清洗

這一步說起來非常簡單:把不要的字段刪了。

但實際操作起來,有很多問題,例如:

把看上去不需要但實際上對業務很重要的字段刪了;

某個字段覺得有用,但又沒想好怎麼用,不知道是否該刪;

一時看走眼,刪錯字段了。

前兩種情況我給的建議是:如果數據量沒有大到不刪字段就沒辦法處理的程度,那麼能不刪的字段儘量不刪。第三種情況,請勤備份數據……

第五步:關聯性驗證

如果你的數據有多個來源,那麼有必要進行關聯性驗證。例如,你有汽車的線下購買信息,也有電話客服問卷信息,兩者通過姓名和手機號關聯,那麼要看一下,同一個人線下登記的車輛信息和線上問卷問出來的車輛信息是不是同一輛,如果不是(別笑,業務流程設計不好是有可能出現這種問題的!),那麼需要調整或去除數據。

嚴格意義上來說,這已經脫離數據清洗的範疇了,而且關聯數據變動在數據庫模型中就應該涉及。但我還是希望提醒大家,多個來源的數據整合是非常複雜的工作,一定要注意數據之間的關聯性,儘量在分析過程中不要出現數據之間互相矛盾,而你卻毫無察覺的情況。

作者:蠟筆小噺沒有煩惱 鏈接:https://www.jianshu.com/p/c2b15fcf7100 來源:簡書 簡書著作權歸作者所有,任何形式的轉載都請聯繫作者獲得授權並註明出處。