Sql去重語句

 

海量數據(百萬以上),其中有些所有字段都相同,有些部分字段相同,怎樣高效去除重複?html

若是要刪除手機(mobilePhone),電話(officePhone),郵件(email)同時都相同的數據,之前一直使用這條語句進行去重:spa

delete fromwhere id not in
(select max(id) fromgroup by mobilePhone,officePhone,email )
or
delete fromwhere id not in
(select min(id) fromgroup by mobilePhone,officePhone,email )

 

其中下面這條會稍快些。上面這條數據對於100萬之內的數據效率還能夠,重複數1/5的狀況下幾分鐘到幾十分鐘不等,可是若是數據量達到300萬以上,效率驟降,若是重複數據再多點的話,經常會幾十小時跑不完,有時候會鎖表跑一晚上都跑不完。無奈只得從新尋找新的可行方法,今天終於有所收穫:code

//查詢出惟一數據的ID,並把他們導入臨時表tmp中
select min(id) as mid into tmp fromgroup by mobilePhone,officePhone,email
//查詢出去重後的數據並插入finally表中
insert into finally select (除ID之外的字段) from customers_1 where id in (select mid from tmp)

 

效率對比:用delete方法對500萬數據去重(1/2重複)約4小時。4小時,很長的時間。htm

用臨時表插入對500萬數據去重(1/2重複)不到10分鐘。blog

SQL語句去掉重複記錄,獲取重複記錄

按照某幾個字段名稱查找表中存在這幾個字段的重複數據並按照插入的時間前後進行刪除,條件取決於order by 和row_num。get

方法一按照多條件重複處理:it

delete tmp from(
  select row_num = row_number() over(partition by 字段,字段 order by 時間 desc)
  fromwhere 時間> getdate()-1
) tmp
where row_num > 1

 

方法二按照單一條件進行去重:io

delete fromwhere 主鍵ID not in(
  select max(主鍵ID) fromgroup by 須要去重的字段 having count(須要去重的字段)>=1
)

 

注意:爲提升效率如上兩個方法均可以使用臨時表, not in 中的表能夠先提取臨時表#tmp,class

而後採用not exists來執行,爲避免數量過大,可批量用Top控制刪除量效率

delete top(2) fromwhere  not exists (select 主鍵ID
  from #tmp where #tmp.主鍵ID=表.主鍵ID)
 

 

 

 

 

-------------------->>>

相關文章
相關標籤/搜索