http://nopainnogain.iteye.com/blog/971212spa
海量數據(百萬以上),其中有些所有字段都相同,有些部分字段相同,怎樣高效去除重複?3d
若是要刪除手機(mobilePhone),電話(officePhone),郵件(email)同時都相同的數據,之前一直使用這條語句進行去重:blog
其中下面這條會稍快些。上面這條數據對於100萬之內的數據效率還能夠,重複數1/5的狀況下幾分鐘到幾十分鐘不等,可是若是數據量達到300萬以上,效率驟降,若是重複數據再多點的話,經常會幾十小時跑不完,有時候會鎖表跑一晚上都跑不完。無奈只得從新尋找新的可行方法,今天終於有所收穫:get
效率對比:用delete方法對500萬數據去重(1/2重複)約4小時。4小時,很長的時間。it
用臨時表插入對500萬數據去重(1/2重複)不到10分鐘。io
其實用刪除方式是比較慢的,多是邊找邊刪除的緣由吧,而使用臨時表,能夠將沒有重複的數據ID選出來放在臨時表裏,再將表的信息按臨時表的選擇出來的ID,將它們找出來插入到新的表,而後將原表刪除,這樣就能夠快速去重啦。class
按照某幾個字段名稱查找表中存在這幾個字段的重複數據並按照插入的時間前後進行刪除,條件取決於order by 和row_num。效率
方法一按照多條件重複處理:email
方法二按照單一條件進行去重:mobile
注意:爲提升效率如上兩個方法均可以使用臨時表, not in 中的表能夠先提取臨時表#tmp,
而後採用not exists來執行,爲避免數量過大,可批量用Top控制刪除量
delete top(2) from 表 where not exists (select 主鍵ID from #tmp where #tmp.主鍵ID=表.主鍵ID)