海量數據(百萬以上),其中有些所有字段都相同,有些部分字段相同,怎樣高效去除重複?spa
若是要刪除手機(mobilePhone),電話(officePhone),郵件(email)同時都相同的數據,之前一直使用這條語句進行去重:code
1 |
delete from 表 where id not in |
2 |
( select max (id) from 表 group by mobilePhone,officePhone,email ) |
4 |
delete from 表 where id not in |
5 |
( select min (id) from 表 group by mobilePhone,officePhone,email ) |
其中下面這條會稍快些。上面這條數據對於100萬之內的數據效率還能夠,重複數1/5的狀況下幾分鐘到幾十分鐘不等,可是若是數據量達到300萬以上,效率驟降,若是重複數據再多點的話,經常會幾十小時跑不完,有時候會鎖表跑一晚上都跑不完。無奈只得從新尋找新的可行方法,今天終於有所收穫:get
1 |
//查詢出惟一數據的ID,並把他們導入臨時表tmp中 |
2 |
select min (id) as mid into tmp from 表 group by mobilePhone,officePhone,email |
4 |
//查詢出去重後的數據並插入finally表中 |
5 |
insert into finally select (除ID之外的字段) from customers_1 where id in ( select mid from tmp) |
效率對比:用delete方法對500萬數據去重(1/2重複)約4小時。4小時,很長的時間。it
用臨時表插入對500萬數據去重(1/2重複)不到10分鐘。io
SQL語句去掉重複記錄,獲取重複記錄
按照某幾個字段名稱查找表中存在這幾個字段的重複數據並按照插入的時間前後進行刪除,條件取決於order by 和row_num。table
方法一按照多條件重複處理:function
2 |
select row_num = row_number() over(partition by 字段,字段 order by 時間 desc ) |
3 |
from 表 where 時間> getdate()-1 |
方法二按照單一條件進行去重:class
1 |
delete from 表 where 主鍵ID not in( |
2 |
select max(主鍵ID) from 表 group by 須要去重的字段 having count (須要去重的字段)>=1 |
注意:爲提升效率如上兩個方法均可以使用臨時表, not in 中的表能夠先提取臨時表#tmp,效率
而後採用not exists來執行,爲避免數量過大,可批量用Top控制刪除量email
2 |
where not exists ( select 主鍵ID |
3 |
from #tmp where #tmp.主鍵ID=表.主鍵ID) |