用SQL語句去掉重複的記錄

用SQL語句去掉重複的記錄(轉)

http://nopainnogain.iteye.com/blog/971212spa

海量數據(百萬以上),其中有些所有字段都相同,有些部分字段相同,怎樣高效去除重複?3d

若是要刪除手機(mobilePhone),電話(officePhone),郵件(email)同時都相同的數據,之前一直使用這條語句進行去重:blog

其中下面這條會稍快些。上面這條數據對於100萬之內的數據效率還能夠,重複數1/5的狀況下幾分鐘到幾十分鐘不等,可是若是數據量達到300萬以上,效率驟降,若是重複數據再多點的話,經常會幾十小時跑不完,有時候會鎖表跑一晚上都跑不完。無奈只得從新尋找新的可行方法,今天終於有所收穫:get

Java代碼 :
 
                select min(id) as mid into tmp from 表 group by mobilePhone,officePhone,email  
 
            //查詢出去重後的數據並插入finally表中    
                insert into  finally select (除ID之外的字段) from customers_1 where id in (select mid from tmp)   
 

 

效率對比:用delete方法對500萬數據去重(1/2重複)約4小時。4小時,很長的時間。it

用臨時表插入對500萬數據去重(1/2重複)不到10分鐘。io

其實用刪除方式是比較慢的,多是邊找邊刪除的緣由吧,而使用臨時表,能夠將沒有重複的數據ID選出來放在臨時表裏,再將表的信息按臨時表的選擇出來的ID,將它們找出來插入到新的表,而後將原表刪除,這樣就能夠快速去重啦。class

 

SQL語句去掉重複記錄,獲取重複記錄

按照某幾個字段名稱查找表中存在這幾個字段的重複數據並按照插入的時間前後進行刪除,條件取決於order by 和row_num。效率

方法一按照多條件重複處理:email

Sql代碼 :
 
delete tmp from( select row_num = row_number() over(partition by 字段,字段 order by 時間 desc)   from 表 where 時間> getdate()-1   ) tmp   where row_num > 1   

 

方法二按照單一條件進行去重:mobile

Sql代碼 :
 
       delete from 表 where 主鍵ID not in(   select max(主鍵ID) from 表 group by 須要去重的字段 having count(須要去重的字段)>=1   )   
 
 
 
 

注意:爲提升效率如上兩個方法均可以使用臨時表, not in 中的表能夠先提取臨時表#tmp,

而後採用not exists來執行,爲避免數量過大,可批量用Top控制刪除量

Java代碼 

delete top(2) from 表   where  not exists (select 主鍵ID  from #tmp where #tmp.主鍵ID=表.主鍵ID)   

 

相關文章
相關標籤/搜索